Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space

即插即用生成网络       http://EvolvingAI.org/ppgn.

(1)以前的研究展示了通过激活一个或者一组神经元用梯度上升方法来产生图片。这篇文章扩展这个理论,通过在隐变量上加入先验,产生更高采样质量和更高采样多样性的(因为可以把生成图片看成在真实图片数据集上的一个采样过程)。(2)提出了一个统一的概率解释AM理论,我们叫这个生成模型是即插即用生成模型。

PPGNs是由(1)生成网络G,负责画图,(2)一个可置换的 ”条件网络“去告诉生成器画什么样的图。(GAN网络的D不是用来判断MSE误差距离的,是用来做分类的能不能把生成的假图和真图分类开,无监督的,需要好好学习研究下gan!!,这里不是gan,注意没说对抗,这里只是有个C,可以用来监督,就像判别器网络的功能,之前的文章都没有提到gan,看文章很不认真,觉得生成网络就是gan网络)


不仅逼真而且很多类别

以前对gan的理解是想当然了

挑战包括(1)产生真实的图片,高分辨率的(2)多样性,而不是生成到一个类别中去

又提到了DGN-AM,(1)首先从一个预训练的分类网络E中训练一个G,让它能够从E提取到的特征中生成真实的图片,如E在imagenet大数据集上训练的,(过程可能像是VAE)(这个时候可以保证G是一个产生真实图片的生成器)(2)然后找到隐藏的编码h,这个h通过G生成图片,而这个图片又能最大激活另一个训练好的分类器C中的神经元,这个应该也是类似梯度提升,只不过直接提升到h层面上,而不是提升到图片x层面,固定权重,优化h,所以理解就是这个G是在给这个AM的梯度提升方法加了一个真实的先验

DCN-AM的问题是生成的样本缺少多样性,不同的初始化生成了相同的模式。本文在DCN-AM的基础上在潜编码h上加一个正则,来实现更好的多样性和质量。

实现这个的方法是通过提出一个概率框架,统一了一系列的AM方法,把它们视为基于能量的模型,用一个迭代抽样的方法用Metropolis-adjusted  Langevin(中心自适应郎之万方法),即插即用的意思是说 一个人可以自由的设计能量函数,用不同的先验和条件来组成一个新的生成模型。

MALA方法看公式把

在这篇文章中测试了四种不同的由DAE建模的先验,


结论:

你可能感兴趣的:(Plug & Play Generative Networks: Conditional Iterative Generation of Images in Latent Space)