李宏毅机器学习_11-0深度生成模型(上下)

把图片拆成一个个像素,一个一个像素的生成
李宏毅机器学习_11-0深度生成模型(上下)_第1张图片
VAE就是引入噪音的,auto encoding,还引入了均值和方差的限制
李宏毅机器学习_11-0深度生成模型(上下)_第2张图片
通过引入噪音,让输出能分布在一定的范围
李宏毅机器学习_11-0深度生成模型(上下)_第3张图片
参数之间互相决定,x>z和z>x
李宏毅机器学习_11-0深度生成模型(上下)_第4张图片
李宏毅机器学习_11-0深度生成模型(上下)_第5张图片
缺点只能基于原来的,跟原始的越像越好,不能产生新的
李宏毅机器学习_11-0深度生成模型(上下)_第6张图片
无监督,就是本身的分布让似然函数最大就好,假设当前数据服从某种分布,假如是正态分布,就变成了找正态分布的均值和方差让当前似然函数最大。

李宏毅机器学习_11-0深度生成模型(上下)_第7张图片
KL散度的概念,描述的就是距离。李宏毅机器学习_11-0深度生成模型(上下)_第8张图片

GAN,第一步随机产生输出训练分辨模型,固定生成模型,是一个二分类的训练
第二步,把整个网络当做一个大网络来训练,但是固定分辨模型的部分值更新生成模型的参数,来训练生成模型。
这样能避免生成模型看到真实的数据,这样就能产生新的东西,和VAE的差别就在这,VAE只能产生和现有的非常像的东西,不能产生真实的东西。

你可能感兴趣的:(李宏毅机器学习_11-0深度生成模型(上下))