GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN

李宏毅老师讲解的GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN

问题:input feature 对output影响不明确这件事;本来假设不同的特性在latent space上的分布是有某种规律性的,但实际上也许它的分布是非常不规则的;因而input feature 对output影响不明确
GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第1张图片

InfoGAN

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第2张图片c是有意义的维度,z为随机的;因为某些维度被划分到c中,所以generator强制要求这些维度有意义,让c的每一个维度对output有明确的影响;注意这里的关系是“c->其中的维度有意义”而不是“其中的维度有意义->c”
GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第3张图片
GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第4张图片

VAE-GAN

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第5张图片

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第6张图片

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第7张图片

BiGAN:encoder和decoder是分开的

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第8张图片

BiGAN 和 两个autocoder(encoder+decoder、decoder+encoder),虽然理论上最优解会是一样的,但是实操中没有办法求的最优解,所以算出来的结果会不一样,特性不一样;BiGAN输入是一只鸟,输出虽然也是一只鸟,但是是不一样的一只鸟

Triple GAN - semi-supervised

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第9张图片

domain-adversial training

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第10张图片

GAN学习笔记-李宏毅:GAN Lecture 7 (2018): Info GAN, VAE-GAN, BiGAN_第11张图片

Feature Disentangle(from 39:20)

- speech:分为发音资讯和语者资讯

你可能感兴趣的:(阅读笔记,深度学习)