WGAN-GP有关

help:

什么是gans:

https://blog.csdn.net/u010089444/article/details/78946039

GANs中包含了两个模型,一个是生成模型GG,另一个是判别模型DD,下面通过一个生成图片的例子来解释两个模型的作用:

生成模型GG:不断学习训练集中真实数据的概率分布,目标是将输入的随机噪声转化为可以以假乱真的图片(生成的图片与训练集中的图片越相似越好)

判别模型DD:判断一个图片是否是真实的图片,目标是将生成模型GG产生的“假”图片与训练集中的“真”图片分辨开。

GANs的实现方法是让DD和GG进行博弈,训练过程中通过相互竞争让这两个模型同时得到增强。由于判别模型DD的存在,使得 GG 在没有大量先验知识以及先验分布的前提下也能很好的去学习逼近真实数据,并最终让模型生成的数据达到以假乱真的效果(即DD无法区分GG生成的图片与真实图片,从而GG和DD达到某种纳什均衡)。

---------------------

作者:Joe-Han

来源:CSDN

原文:https://blog.csdn.net/u010089444/article/details/78946039

版权声明:本文为博主原创文章,转载请附上博文链接!

什么是wgans

https://blog.csdn.net/zhl493722771/article/details/82781914

问题

GAN一直面临以下问题和挑战

训练困难,需要精心设计模型结构,并小心协调G和D的训练程度

G和D的损失函数无法指示训练过程,缺乏一个有意义的指标和生成图片的质量相关联

模式崩坏(mode collapse),生成的图片虽然看起来像是真的,但是缺乏多样性

原理

相对于传统的GAN,WGAN只做了以下三点简单的改动

D最后一层去掉sigmoid

G和D的loss不取log(sigmoid_cross_entropy_with_logits)

每次更新D的参数之后,将其绝对值截断到不超过一个固定常数c,即gradient clipping(前作);或使用梯度惩罚,即gradient penalty(后作)

---------------------

作者:张宏伦

来源:CSDN

原文:https://blog.csdn.net/zhl493722771/article/details/82781914

版权声明:本文为博主原创文章,转载请附上博文链接!

WGAN-gp


https://blog.csdn.net/weixin_41036461/article/details/82385334

http://www.twistedwg.com/2018/02/02/WGAN-GP.html



深度解剖GANs为啥不稳定?都是JS惹的祸!!

https://zhuanlan.zhihu.com/p/25071913

这个很清晰啊:https://lilianweng.github.io/lil-log/2017/08/20/from-GAN-to-WGAN.html#vanishing-gradient

WGAN-GP

https://tomaxent.com/2017/07/18/WGAN-GP/

你可能感兴趣的:(WGAN-GP有关)