GAN&VAE&Diffusion

数学基础

KL散度

  • 描绘一个分布p和另一个分布q之间的偏离程度
    在这里插入图片描述
  • p ( x ) = = q ( x ) p(x)==q(x) p(x)==q(x)时散度取得最小值

JS散度

  • 另一种衡量两个概率分布相似性的方法
    在这里插入图片描述

GAN

  • 需要训练两个网络;损失来回波动,不好分辨,不容易收敛;可能会学到一些不希望学到的东西,即不好掌控
    GAN&VAE&Diffusion_第1张图片

鉴别器D

  • 预测给定的真实样本的概率,并区分真假样本

生成器G

  • 通过学习数据分布,生成假样本以欺骗判别器获得一个高的数据分布,两个模型相互竞争,进行博弈,并相互进行改进。

Autoencoder

GAN&VAE&Diffusion_第2张图片

  • Encoder: 将原始高维输入数据转化为低维,输入大小大于输出大小
    • 编码器在处理过程中完成了数据的降维
  • Decoder:从代码中恢复数据,可能居于越来越大的输出层。

VAE

  • 其思想和其他自编码器模型不同,主要用到变分贝叶斯和图形模型
  • VAE通过对Encoder对输入(我们这里以图片为输入)进行高效编码,然后由Decoder使用编码还原出图片,在理想情况下,还原输出的图片应该与原图片极相近。
    GAN&VAE&Diffusion_第3张图片

Diffusion Model

  • GAN因为使用对抗训练,训练不稳定,缺少多样性生成;VAE依赖于替代损失;流模型必须使用专门的体系结构来构造可逆转换
  • 扩散模型受非平衡热力学启发,其定义了一个马尔可夫链,通过像数据中添加噪声,然后反向学习扩散过程,进而构造样本
    GAN&VAE&Diffusion_第4张图片

Forward diffusion process

  • 给定从真实数据中采样的数据点,并向样本中添加少量高斯噪声,产生一系列的有噪声的样本
    GAN&VAE&Diffusion_第5张图片
  • 随着t逐渐变大,数据样本逐渐失去可区分的特征,最终当T趋于无穷时, X T X_T XT等价于正态高斯分布
    GAN&VAE&Diffusion_第6张图片
  • 可以推出 x t x_t xt的推导公式,而当样本逐渐变得嘈杂时,更新步幅也随之变大

在这里插入图片描述

  • 其中 a t = 1 − β t a_t=1-\beta_t at=1βt, β \beta β逐渐变大,从0.0001到0.002之间,进而 α \alpha α也逐渐变小
  • 可以看到 x t x_t xt的公式中 x t x_t xt x t − 1 x_{t-1} xt1有关,同时再加上一点高斯分布噪音
    GAN&VAE&Diffusion_第7张图片
  • 同理, x t − 1 x_{t-1} xt1也可以用 x t − 2 x_{t-2} xt2表示出来,带入到 x t x_t xt的表达式中,得到红线部分 z 1 , z 2 z_1,z_2 z1,z2两个高斯分布噪音的相加
  • 式子中对高斯分布乘上一个数,相当于对分布的方差进行变化,如果加减操作,相当于对分布的均值发生变化,因此可以发现二者的方差已经变化
    在这里插入图片描述
  • 相乘之后的分布仍服从高斯分布,因此二者可以做加法,新的分布还是高斯分布,只不过是方差相加
    GAN&VAE&Diffusion_第8张图片
  • 因此可以看出, x t x_t xt的分布和他的前t项相关,是其前t项连乘,这样就能做到直接得到加噪过程中任意一项的图像分布。

Reverse Process

GAN&VAE&Diffusion_第9张图片

  • 反向过程即通过 x t x_t xt逐渐推出 x 0 x_0 x0的过程,通过使用贝叶斯公式可以完成这一过程,其中 q ( x t ∣ x t − 1 ) q(x_t|x_{t-1}) q(xtxt1)为正向过程,已知, q ( x t − 1 ∣ ∣ x 0 ) q(x_{t-1|}|x_0) q(xt1∣x0)也都已知
  • 这里三个式子都是服从高斯分布,因此乘以一个数和加上一个数,分别改变其方差和均值,和前面的过程相同。
    在这里插入图片描述
  • 根据贝叶斯公式,需要将其中两项相乘,再除以第三项,因为这三项都服从正态分布,因此将他们做乘除即幂次相加减

参考资料

  1. B站强推!2023公认最通俗易的扩散模型【Diffusion】3小时入门到精通,比GAN
  2. 什么是扩散模型?

你可能感兴趣的:(人工智能)