cGAN初步解决了GAN不能生成具有特定属性的图片这一问题,但是,GAN难训练,容易出现大量无效图片的弱点仍未得到改善。为此,Alec Radford等人[1]将卷积神经网络框架引入GAN中,替代原先的多层感知机模型,大大提升了GAN生成图片的稳定性。该论文虽没在理论上进行大量推导,但在GAN的工程实现上做出了不小的贡献。
本文首先介绍Toeplize矩阵与二维卷积的关系,在此基础上引出转置卷积这一升采样方法,最后结合论文提出的网络结构介绍DCGAN。
二维信号的卷积可作为图像平滑去噪、提取特征(如边缘特征)的手段。其基本计算式如下:
二维卷积作为一种降采样的过程,可被GAN中的判别器用作提取特征的手段,值得注意的是,生成器 G G 使用卷积这样的降采样方法显得毫无意义,为了将原始一维噪声变为图像,急需一种升采样方法,转置卷积应运而生。
二维卷积可转换为Toeplitz矩阵与卷积核的矩阵乘法,那么能否使用Toeplitz矩阵将卷积结果还原成原始输入图像的大小?答案是肯定的,即使用Toeplitz矩阵的转置与卷积结果相乘,可以将输出恢复到原始输入图像的大小。转置卷积可以理解为是CNN反向传播求解梯度必要的一步(具体原因可参考BP算法中反向传播公式,权重梯度公式中含有 δTα δ T α 操作)。转置卷积具体演算过程本文不做详细介绍,可参考文献[1]来获得一个更为直观的认识。可以推导出经过转置卷积后输入输出大小变化的公式[1]
Alec Radford等人于2016年初提出DCGAN以改善GAN的可训练性[3]。他们认为传统GAN之所以不稳定,一个原因便是判别器 D D 搭载的是初级的多层感知机模型,为了将火热的CNN纳入GAN的体系中,作者将多层感知机用CNN进行替换,并做了如下改进:
- 将池化层用 stride=1 s t r i d e = 1 的卷积层代替
- 将输给生成器 G G 的100维噪声映射为四维张量用作CNN输入而不是向量
- 每进行一次卷积操作就进行批规一化(Batch Normalization)
- 使用ReLU层替换传统的Sigmoid函数,并对输出层使用Tanh激活
- 对判别器 D D 使用LeakyReLU函数作为激活函数
- 移除所有全连接层
在以上改进的支撑下,论文给出了生成器 G G 的网络结构[2]:
经实验验证,该模型生成的图像较为稳定,虽然只能生成64*64大小的图像,但是这可以通过一些基本的图像处理方法,如金字塔来提升生成图像的分辨率。作者在卧室数据集LSUN上进行了实验,取得了较好的效果
除此之外,作者还发现DCGAN有一个算数加减性质。如下图所示,左侧为图像 A A ,最右侧为图像 B B ,将用于生成图像 A A 的噪声 ZA Z A 与生成 B B 图像的噪声 ZB Z B 每一维度的分量进行从 ZA Z A 到 ZB Z B 的线性插值,可以得到从 A A 图像到 B B 图像的渐变图像。利用该性质,可以生成一些原本数据集中不存在的性质的图像。这一性质有一个有趣的应用,即生成本来不存在的戴墨镜的女性。
在强大的CNN加持下,DCGAN加强了原始GAN的可训练性。下一篇文章将介绍WGAN。该模型将Earth-Mover距离引入GAN模型中,从理论上解决了生成器生成结果不稳定的问题
参考文献:
[1] Dumoulin V., Visin F. A guide to convolution arithmetic for deep learning. https://arxiv.org/pdf/1603.07285.pdf, 2016.pdf, 2016.
[2] Mathwork. MATLAB Docs [EB/OL]. http://cn.mathworks.com/help/matlab/ref/
conv2.html?searchHighlight=conv2&s_tid=doc_srchtitle, 2017.
[3] Radford A., Metz L. Unsupervised Representation Learning with Deep Convolution Generative Adversarial Networks[J]. arXiv:1511.06434,2015.