用不确定性的角度了解GAN的生成器

一、生成式网络

我们平常所遇到的分类、回归网络大多是判别式的,判别式网络很明确自身要给出的答案,这些答案是没有"创造力"的。
生成式网络可以创造出一些新的东西。

二、NetWork as generator

用不确定性的角度了解GAN的生成器_第1张图片
输入是x和simple distribution(它们的拼接有多种方式)时,输出就不再固定(不是单纯的0和1)。这是为什么?因为当我们有一个确定的distribution,即可在其中进行采样,也就是随机其输入。这样产生的output不会因为x是确定的所以总产生某一个特定的值,而是产生一个复杂的分布,这个分布依赖于采样的distribution。

三、Why distribution?

为什么某些时候输出想要是一个distribution,而不是某些确定的值,因为有的时候我们不想网络过于片面,仅仅非黑即白。在进行有创造力的工作时,更是如此。假设说我们预测明天的天气是下雨还是不下雨,希望在加入一个simple distribution的采样后能产生类似于小雨或是雨夹雪这样的天气现象,这就是不确定性。这种不确定性增加了输出的多样性或者说是创造力。

Unconditional generation

Unconditional 顾名思义,无条件的不确定的,我们此时把输入x拿掉既可叫其为unconditional generation,输入是从一个normal distribution中采样的低维向量,当然也可以不是normal distribution但一定是可以进行采样的一个简单分布(这样我们才能制造一个random的输入),输出一个较高维的向量(例如图片)。
用不确定性的角度了解GAN的生成器_第2张图片
值得注意的是,这里所谓的高维和低维仅在说数量的问题,并不能说是真正的维度,例如输入12x1的向量,输出1024x1的向量,然后输出再resampler成一张图片。那么12和1024本身也不代表真正的维度,记住这种易混淆的表达即可。

Conclusion

仅到这里即可知道,数据是如何生成的,但想要知道如何生成能以假乱真的数据,就要继续了解判别器Discriminator和训练的对抗机制。

你可能感兴趣的:(深入浅出系列,生成对抗网络,机器学习,深度学习)