【计算机视觉 复习流程剖析及面试题详解 】
【深度学习算法 最全面面试题(30 页)】
【机器学习算法 最全面面试题(61页)】
神经网络最全面面试题
卷积神经网络最全面面试题
循环神经网络最全面面试题
长短期记忆网络最全面面试题
反向传播面试题
生成式对抗网络,由一个生成器网络和一个判别器网络组成。判别器的训练目的是能够区分生成器的输出与来自训练集的真实图像,生成器的训练目的是欺骗判别器。值得注意的是,生成器从未直接见过训练集中的图像,它所知道的关于数据的信息都来自于判别器。
GAN 相关的技巧:
它将一个向量(来自潜在空间,训练过程中对其随机采样)转换为一张候选图像。GAN 常见的诸多问题之一,就是生成器“卡在”看似噪声的生成图像上。
一种可行的解决方案是在判别器和生成器中都使用 dropout。
接下来开发 discriminator 模型,它接收一张候选图像(真实的或合成的)作为输入,并将其划分到这两个类别之一:“生成图像”或“来自训练集的真实图像”。
① 输入规范化到(-1,1)之间,最后一层的激活函数使用tanh(BEGAN除外)
② 使用wassertein GAN的损失函数
③ 如果有标签数据的话,尽量使用标签,也有人提出使用反转标签效果很好,另外使用标签平滑,单边标签平滑或者双边标签平滑
④ 使用mini-batch norm, 如果不用batch norm 可以使用instance norm 或者weight norm
⑤ 避免使用RELU和pooling层,减少稀疏梯度的可能性,可以使用leakrelu激活函数
⑥ 优化器尽量选择ADAM,学习率不要设置太大,初始1e-4可以参考,另外可以随着训练进行不断缩小学习率
⑦ 给D的网络层增加高斯噪声,相当于是一种正则