SCORE-BASED GENERATIVE MODELING THROUGH STOCHASTIC DIFFERENTIAL EQUATIONS 阅读笔记

建立一个连续时间索引的扩散过程 { x ( t ) } t = 0 T , t ∈ [ 0 , T ] \{\mathbf{x}(t)\}_{t=0}^T, t \in [0, T] {x(t)}t=0T,t[0,T],其满足 x ( 0 ) ∼ p 0 \mathbf{x}(0)\sim p_0 x(0)p0是需要学习的目标数据分布, x ( T ) ∼ p T \mathbf{x}(T)\sim p_T x(T)pT是便于采样的先验分布。这个扩散过程可以用下面的随机微分方程(SDE)的解表示:
d x = f ( x , t ) d t + g ( t ) d w (5) \mathrm{d}\mathbf{x} = f(\mathbf{x}, t)\mathrm{d}t + g(t)\mathrm{d}\mathbf{w} \tag{5} dx=f(x,t)dt+g(t)dw(5) w \mathbf{w} w是标准Wiener过程, f ( ⋅ , t ) f(\cdot, t) f(,t)是称为drift coefficient的向量函数, g ( t ) g(t) g(t)是称为diffusion coefficient的标量函数。
通过从 x ( T ) ∼ p T \mathbf{x}(T)\sim p_T x(T)pT采样,并逆转上面的过程,我们可以得到 x ( 0 ) ∼ p 0 \mathbf{x}(0)\sim p_0 x(0)p0,从而得到目标数据分布的样本。已有工作证明上面扩散过程的逆仍然是一个扩散过程,不过时间从T到0:
d x = [ f ( x , t ) − g ( t ) 2 ∇ x log ⁡ p t ( x ) ] d t + g ( t ) d w ‾ (6) \mathrm{d}\mathbf{x} = [f(\mathbf{x}, t) - g(t)^2 \nabla_\mathbf{x}\log p_t(\mathbf{x})]\mathrm{d}t + g(t)\mathrm{d}\overline{\mathbf{w}} \tag{6} dx=[f(x,t)g(t)2xlogpt(x)]dt+g(t)dw(6) w ‾ \overline{\mathbf{w}} w是时间从T到0的标准Wiener过程。 ∇ x log ⁡ p t ( x ) \nabla_\mathbf{x}\log p_t(\mathbf{x}) xlogpt(x)被称为score。如果可以得到score ∇ x log ⁡ p t ( x ) \nabla_\mathbf{x}\log p_t(\mathbf{x}) xlogpt(x),那么就可以通过逆过程采样 p 0 p_0 p0的样本。

为了得到 x ( 0 ) ∼ p 0 \mathbf{x}(0)\sim p_0 x(0)p0,需要先求score ∇ x log ⁡ p t ( x ) \nabla_\mathbf{x}\log p_t(\mathbf{x}) xlogpt(x),再根据公式(6)的逆扩散过程求解 x ( T ) \mathbf{x}(T) x(T)

score估计

逆SDE求解

概率流

对于所有的扩散过程,存在一个确定的过程,其轨迹和扩散过程有相同的边际概率密度(marginal probability densities) { p ( x ) } t = 0 T \{p(\mathbf{x})\}_{t=0}^T {p(x)}t=0T。公式(5)对应的确定过程满足下面的常微分方程(ODE):
d x = [ f ( x , t ) − 1 2 g ( t ) 2 ∇ x log ⁡ p t ( x ) ] d t \mathrm{d}\mathbf{x} = [f(\mathbf{x}, t) - \frac{1}{2}g(t)^2 \nabla_\mathbf{x}\log p_t(\mathbf{x})]\mathrm{d}t dx=[f(x,t)21g(t)2xlogpt(x)]dt作者将上面的ODE称为概率流ODE(probability flow ODE)。
DDPM不能直接计算likelihood,只能用ELBO代替likelihood。而扩散过程的likelihood可以通过转换为概率流ODE计算。因为概率流ODE算是neural ODE的一个特例,neural ODE的论文中已经证明其可以计算flow的概率,所以通过instantaneous change of variables formula可以计算概率流ODE的概率。
另外,因为公式(5)没有可学习的参数,所以如果有完美估计的score,那么通过概率流ODE可以得到数据和隐含表示的一对一映射关系。毕竟概率流ODE类似normalize flow是一个确定的过程,而不像DDPM等方法一样,在不停的采样。

你可能感兴趣的:(笔记,机器学习,深度学习)