模范爸爸 训练,损失函数和算法,了解GAN背后的设计( 二 )


以下是论文中生成器损失函数的快照:
转置卷积与卷积的逆不同 , 它不能恢复给定卷积输出的输入 , 只是改变了卷积的形状 。 下面的例子说明了上述生成器模型背后的数学原理 , 特别是卷积层 。
论文算法的内部for循环 。 这意味着 , 对于k>1 , 我们在G的每次迭代中对判别器D执行多次训练迭代 。 这是为了确保D'被充分训练并且比G更早地学习 。 我们需要一个好的D来欺骗G 。
DCGAN中还重点介绍了生成器在操作时如何忘记它正在生成的卧室图像中的某些对象 。 他们通过从第二层卷积层特征集中删除对应窗口的特征映射来实现这一点 , 并展示了网络是如何用其他对象替换窗口空间的 。


推荐阅读