【GANs学习笔记】(十五)EBGAN、BEGAN

完整笔记:http://www.gwylab.com/note-gans.html
———————————————————————
本章借鉴内容:
https://blog.csdn.net/qq_25737169/article/details/77575617?locationNum=1&fps=1

 

2. EBGAN

       EBGAN的全称是Energy-Based GAN,它只改动了discriminator,使其不再去鉴别输入图像是来自于还是,而是去鉴别输入图像的重构性高不高。具体来说就是,本来discriminator的目的是学会寻找之间的差异,进而给图片质量打分,现在我们不再是通过寻找差异来打分,而是用一种强烈的记忆discriminator仅仅记住长什么样子,然后对于一个任意的输入x,只要x符合这个“记忆”中的样子就给高分,只要x与“记忆”中的样子有差异就给低分。EBGAN就是用autoencoder实现了这样的“记忆”,我们会在接下来详细介绍。

【GANs学习笔记】(十五)EBGAN、BEGAN_第1张图片

       首先值得说明的是,图中的autoencoder是提前用真实图片训练好的,也就是说,如果输入是来自真实数据集的图片,这个autoencoder就能产生和输入非常相似的图片;但是如果输入的是其他图片,autoencoder的输出就不会和输入相似。现在把这个autoencoder放入discriminator中,每当discriminator输入一张image x,通过这个autoencoder得到重构图像x’,我们就能用xx‘的差值作为评判输入图像x质量好坏的标准,当差值越低的时候意味着输入图片越符合真实图片的特征。

       由此我们可以看到,EBGAN的最大特点就是discriminator一开始就非常强(因为有pretrain),因此generator在一开始就能获得比较大的“能量驱动”(energy based),使得在一开始generator就进步非常快。所以如果我们比较看中训练效率,希望在短期内获得一个比较不错的generator的话,就可以考虑EBGAN

       更:上边写的太简单了点,关于EBGAN的详细解释,新写了一篇: 【GANs学习笔记】(二十三)EBGAN深度理解

 

3.* BEGAN

       BEGAN看着与EBGAN好像,二者确实存在着一些关联。BEGAN的全称是Boundary Equilibrium GAN(边界均衡GAN),它借鉴了 EBGAN WGAN 各自的一些优点,提出了一种新的评价生成器生成质量的方式,使GAN即使使用很简单的网络,也能实现很好的训练效果,完全不用担心模式崩溃(model collapse)和训练不平衡的问题。

直观来讲,如果两个分布越相近,我们可以认为他们越相似,当生成数据分布非常接近于真实数据分布的时候,这时候生成器就有足够的生成能力。BEGAN代替了这种估计概率分布方法,它不直接去估计生成分布Pg与真实分布Px的差距,而是估计分布的误差分布之间的差距,作者认为只要分布之间的误差分布相近的话,也可以认为这些分布是相近的。

BEGAN中,作者做出了以下四个贡献:

1. 提出了一种新的简单强大GAN网络结构,使用标准的训练方式不加训练trick也能很快且稳定的收敛

2. 对于GANGD的能力的平衡提出了一种均衡的概念

3. 提供了一个超参数,这个超参数可以在图像的多样性和生成质量之间做均衡

4. 提出了一种收敛程度的估计,这个机制只在WGAN中出现过。

这篇paper比较偏理论了,我就不再做详细介绍了(逃),感兴趣的读者可以自行去研究,附上一篇非常好的讲解博文:

https://blog.csdn.net/qq_25737169/article/details/77575617?locationNum=1&fps=1

你可能感兴趣的:(GANs学习笔记)