对抗网络2019-2020速览

Variational Discriminator Bottleneck: Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow.(ICLR 2019高分论文)
首先讲一下需要了解的知识:
A.信息瓶颈
他的原理是,在信息传播过程中,设置一个瓶颈,通过这个瓶颈的信息是有限的,然而仅用这些有限的信息还要完成分类或者回归的任务,所以流过瓶颈的这些“有限的信息”肯定是最重要,少而精的。通过信息瓶颈,可以获取到重要特征。
B.互信息
三种理解1)互信息度量 x 和 y 共享的信息。2)y的发生给x的不确定度的减少,也就是x如果发生能够带来的信息量减少了。就好比扔骰子,y是扔出偶数,x是扔出6。原本x能带来的信息量比发生y后要多,而这部分减少的信息量叫做互信息。3)如下图所示,A和B的交,I(X,Y)表示为互信息。


对抗网络2019-2020速览_第1张图片
互信息.png

问题:作者先提出了一个gan训练过程中经常会遇到的问题,当判别器训练得不好的时候,会导致生成器得不到准确的指导信息,而当判别器训练得太好的时候,会导致生成器出现梯度学习的问题。这篇文章想要解决的问题是判别器学习的太好怎么办。

为了解决这个问题,常见的解决思路有两种:

(1)引入误差:通常在隐藏层加入误差,这样的话可以让真样本和假样本的分布可能存在交集,同时会增加判别器辨别真伪的难度,从而避免判别器的性能太好。(中间部分越陡,两端越平说明效果越好),从而降低梯度消失的可能性。

(2)对判别器的性能进行额外的约束:比如对判别器复杂度进行约束,对梯度进行约束等

变分判别器瓶颈

利用信息瓶颈约束进入判别器内的信息流,通过对判别器输入的观测数据和和经过编码器的特征表示之间的互信息进行约束来稳定对抗性模型的训练过程,如下图。促使判别器学习到使原始数据和生成器的数据分布有很多重叠的数据表征,从而有效地调整判别器的准确率并维持判别器能够为生成器带有足够信息量的梯度。

对抗网络2019-2020速览_第2张图片
编码器首先将样本 x 映射到潜在分布 E(z|x) 上(正态分布)。接着,训练判别器从潜在分布中对样本 z 进行分类,将信息瓶颈 I(X, Z) ≤ I_c 作用于 Z。右图:被训练用来通过不同 KL 边界 I_c 区分两个高斯分布的判别器的可视化结果。可以认为左生成分布为0,右真实图像分布为1.

疑问1:
为什么使用了对判别器输入的观测数据和和经过编码器的特征表示之间的互信息的约束就能稳定了呢?

首先,我们得到的特征空间 z 是由 x 编码得到的,理论上已知 x 就可确定 z,x 和 z 是完全相关的,也就是 x 和 z 的互信息是较大的。而现在限制了互信息的值,这样就切断了一部分 x 和 z 的相关性,保留的相关性是 x 和 z 最具辨别力的特征,而其它相关性较低的特征部分将被限制掉,从而使得模型不至于过度学习,增强泛化能力,防止过拟合。
个人解释:X里面包含真实data和generator生成数据,通过互信息约束,将X与正太分布拉近,并且互信息越小,X的表示范围变小,因此真实data与generator生成数据的表示会有很多重叠,因此能够增大判别器学习难度,使得反传有效梯度。

你可能感兴趣的:(对抗网络2019-2020速览)