具有多个生成器和多个判别器的GAN

∆ -GAN(2个判别器,2个生成器)

三维生成对抗网络(Δ-GAN)用于半监督跨域联合分布匹配,其中训练数据由来自每个域的样本组成,并且域对应的监督仅由少数配对样本提供。Δ-GAN由四个神经网络,两个发生器和两个鉴别器组成。生成器被设计用于学习两个域之间的双向条件分布,而判别器隐含地定义了三元鉴别函数,该函数经过训练以区分真实数据对和两种假数据对。生成器和判别器使用对抗学习同步训练。在温和的假设下,理论上这两个生成器的共同分布集中在数据分布上。在实验中,考虑了三种不同的域对,即图像-标签,图像-图像和图像-属性对。半监督图像分类,图像到图像转换和基于属性的图像生成的实验证明了提出的方法。

Triple-GAN(G,D,C)看成两个条件GAN

生成式对抗网络(GAN)在图像生成和半监督学习(SSL)方面表现出前景。然而,现有的SSL中的GAN有两个问题:(1)发生器和鉴别器(即分类器)可能不是同时最佳的;(2)生成器不能控制生成的样本的语义。这个问题基本上来自双人游戏公式,其中单个鉴别者共享识别假样本和预测标签的不兼容作用,并且它仅评估数据而不考虑标签。为了解决这些问题,我们提出三重生成对抗网(Triple-GAN),它由三个参与者组成 - 一个生成器,一个鉴别器和一个分类器。生成器和分类器表征图像和标签之间的条件分布鉴别器仅着重于识别假图像 - 标签对。我们设计兼容的实用程序,以确保分类器和发生器所表征的分布均收敛于数据分布。我们在各种数据集上的结果表明,作为统一模型的Triple-GAN可以同时(1)实现最先进的分类(2)通过有条件地在潜在空间中进行插值,在数据空间中平滑地分解输入的类别和样式并进行传输。

DualGAN(2个生成器,2个判别器)

用于跨域图像到图像转换的条件生成对抗网络(GAN)近来取得了很大进展。根据任务的复杂性,需要数千到数百万个标记图像对来训练条件GAN。但是,人类标签价格昂贵,甚至不切实际,而且大量的数据可能并不总是可用的。受到自然语言翻译的双重学习的启发[23],我们开发了一种新型的双GAN机制,它可以通过来自两个域的两组未标记图像对图像转换器进行训练。在我们的体系结构中,原始GAN学习将图像从域U转换到域V中的图像,而双重GAN学习反转任务。由原始和双重任务产生的闭环允许来自任一域的图像被翻译,然后重建。因此,可以使用解释图像重构误差的损失函数来训练翻译人员。对未标记数据的多个图像转换任务进行的实验显示DualGAN在单个GAN上的性能提高很多。对于某些任务,DualGAN甚至可以实现与完全标记数据训练的条件GAN相比或略好的结果。

ALI

我们引入了对抗学习推理(ALI)模型,生成网络和推理网络使用对抗过程共同学习。 生成网络将样本从随机潜变量映射到数据空间,而推理网络将数据空间中的训练实例映射到潜变量空间。在这两个网络之间施加对抗性博弈,训练判别网络以区分来自生成网络的联合潜在/数据空间样本来自推理网络的联合样本。我们说明模型学习相互连贯推理的能力和通过对模型样本和重建进行检查,并通过获得与半监督SVHN和CIFAR10任务相媲美的性能来确认学习表示的有用性。

BiGAN

生成对抗网络(GANs)框架学习生成模型从简单的潜在分布映射到任意复杂的数据分布的能力已经凭经验证明,具有令人信服的结果表明这些生成器的潜在空间捕获数据分布中的语义变化。直观地说,被训练来预测给定数据的这些语义潜在表示的模型可以作为语义相关的辅助问题的有用特征表示。然而,以其现有形式,GAN无法学习逆映射--将数据投影回潜在空间。我们提出双向生成对抗网络(BiGANs)作为学习该逆映射的手段,并且证明所得到的学习特征表示是有用的辅助监督的歧视任务,与当代无监督和自我监督的特征学习方法相竞争。

CGAN

生成式对抗网最近被引入作为训练生成模型的新方法。在这项工作中,我们介绍了生成对抗网络的条件版本,可以通过简单地提供数据y来构建生成对抗网络,我们希望同时生成生成器和鉴别器。我们证明这个模型可以生成MNIST数字,并以类标签为条件。我们还说明了如何使用此模型来学习多模式模型,并提供了一个应用于图像标记的初步示例,其中我们演示了此方法如何生成不属于培训标签的描述性标签。

你可能感兴趣的:(GAN)