[论文笔记]GMNN图马尔可夫网络—基础:变分推断、EM

变分推断

参考:

【一文学会】变分推断及其求解方法_小明的博客-CSDN博客_变分推断

基本思路

在概率模型中,常常需要近似难以计算的概率分布,在贝叶斯统计中,所有的对于未知量的推断(inference)问题可以看做是对后验概率(posterior)的计算。而这一概率通常难以计算,可以利用MCMC马尔科夫链蒙特卡洛算法做近似,但是对于大量数据,MCMC算法计算较慢,**变分推断(Variational Inference)**提供了一种更快更简单的适用于大量数据的近似推断方法。

假定用 X = x 1 : n X=x_{1:n} X=x1:n代表我们输入的观测值, Z = z 1 : m Z=z_{1:m} Z=z1:m代表模型中的隐藏变量,问题即为推断输入数据的后验条件概率分布 p ( Z ∣ X ) p(Z|X) p(ZX)

变分法的基本思想是将这一问题转换为优化(optimization)问题。

首先,我们提出一族关于隐藏变量的近似概率分布 Q Q Q,我们希望从这一族分布中找到一个与真实的后验分布的KL Divergence(KL散度)最小的分布 q ∗ ( X ) q^*(X) q(X)

KL Divergence(KL散度)

是指某分布q(x)被用于近似p(x)时的信息损失。
D ( p ∣ ∣ q ) = p ( x ) ∑ x ∈ X log ⁡ p ( x ) q ( x ) D(p||q)=p(x)\sum_{x\in X}\log\frac{p(x)}{q(x)} D(pq)=p(x)xXlogq(x)p(x)
也就是说,q(x)能在多大程度上表达p(x)所包含的信息,KL散度越大,表达效果越差。

之后,我们便可以用 q ∗ ( X ) q^*(X) q(X)来近似替代真实的后验分布 p ( Z ∣ X ) p(Z|X) p(ZX)。因此变分推断将推断问题转化为了求极值的优化问题。而 Q Q Q的选择决定了优化问题的难易度,变分法核心问题就是要选定这一族函数使得密度分布足够灵活可以近似 p ( Z ∣ X ) p(Z|X) p(ZX)的分布,同时又使得我们可以进行高效的优化。

变分推断详述

  1. 我们可以将隐藏变量 z ⃗ \vec z z 相对于观察量 x ⃗ \vec x x 的条件概率写为
    p ( Z ∣ X ) = p ( Z , X ) p ( X ) (1) p(Z|X)=\frac{p(Z,X)}{p(X)}\tag{1} p(ZX)=p(X)p(Z,X)(1)
    其中分母是观察量的边缘分布,可以通过从联合分布中边缘化隐藏变量得到,即 p ( X ) = ∫ p ( Z , X ) d Z p(X)=\int p(Z,X)dZ p(X)=p(Z,X)dZ,这个函数又被称为evidence,通常这个积分需要指数级别的时间去计算,这也是为什么推断问题常常难于处理。

  2. 对于式子(1),两边取对数,并在等式右边引入Q(Z):
    ln ⁡ ( P ( X ) ) = ln ⁡ ( P ( X , Z ) ) − ln ⁡ ( P ( Z ∣ X ) ) \ln(P(X))=\ln(P(X,Z))-\ln(P(Z|X)) ln(P(X))=ln(P(X,Z))ln(P(ZX))

    ln ⁡ ( P ( X ) ) = ln ⁡ ( P ( X , Z ) Q ( Z ) ) − ln ⁡ ( P ( Z ∣ X ) Q ( Z ) ) (2) \ln(P(X))=\ln(\frac{P(X,Z)}{Q(Z)})-\ln(\frac{P(Z|X)}{Q(Z)})\tag{2} ln(P(X))=ln(Q(Z)P(X,Z))ln(Q(Z)P(ZX))(2)

  3. 在Q(Z)下对上式取期望,Q(Z)即为我们用来近似的分布:
    ∫ Q ( Z ) ln ⁡ ( P ( X ) ) d Z = ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) Q ( Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( P ( Z ∣ X ) Q ( Z ) ) d Z (3) \int Q(Z)\ln(P(X))dZ=\int Q(Z)\ln(\frac{P(X,Z)}{Q(Z)})dZ-\int Q(Z)\ln(\frac{P(Z|X)}{Q(Z)})dZ\tag{3} Q(Z)ln(P(X))dZ=Q(Z)ln(Q(Z)P(X,Z))dZQ(Z)ln(Q(Z)P(ZX))dZ(3)

    期望函数 E \mathbb{E} E

    • 离散型随机变量x,p(x)表示取到x的概率,f(x)是x的概率密度函数,则期望函数 E \mathbb{E} E
      E ( X ) = x 1 ∗ p ( x 1 ) + x 2 ∗ p ( x 2 ) + . . . + x n ∗ p ( x n ) = x 1 ∗ f ( x 1 ) + x 2 ∗ f ( x 2 ) + . . . + x n ∗ f ( x n ) \mathbb{E}(X)=x_1*p(x_1)+x_2*p(x_2)+...+x_n*p(x_n)\\ =x_1*f(x_1)+x_2*f(x_2)+...+x_n*f(x_n) E(X)=x1p(x1)+x2p(x2)+...+xnp(xn)=x1f(x1)+x2f(x2)+...+xnf(xn)

    • 连续性随机变量x,f(x)是x的概率密度函数,则期望函数 E \mathbb{E} E
      E ( X ) = ∫ x f ( x ) d x \mathbb{E}(X)=\int xf(x)dx E(X)=xf(x)dx

  4. 等式左侧P(X)与Z无关,Q(Z)对Z的积分为1;右侧简单展开后,得到:
    ln ⁡ ( P ( X ) ) = ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( Q ( Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( P ( Z ∣ X ) Q ( Z ) ) d Z = ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( Q ( Z ) ) d Z + ∫ Q ( Z ) ln ⁡ ( Q ( Z ) P ( Z ∣ X ) ) d Z (4) \ln(P(X))=\int Q(Z)\ln({P(X,Z)})dZ-\int Q(Z)\ln(Q(Z))dZ-\int Q(Z)\ln(\frac{P(Z|X)}{Q(Z)})dZ\\ =\int Q(Z)\ln({P(X,Z)})dZ-\int Q(Z)\ln(Q(Z))dZ+\int Q(Z)\ln(\frac{Q(Z)}{P(Z|X)})dZ\tag{4} ln(P(X))=Q(Z)ln(P(X,Z))dZQ(Z)ln(Q(Z))dZQ(Z)ln(Q(Z)P(ZX))dZ=Q(Z)ln(P(X,Z))dZQ(Z)ln(Q(Z))dZ+Q(Z)ln(P(ZX)Q(Z))dZ(4)
    其中公式(4)左侧 ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( Q ( Z ) ) d Z \int Q(Z)\ln({P(X,Z)})dZ-\int Q(Z)\ln(Q(Z))dZ Q(Z)ln(P(X,Z))dZQ(Z)ln(Q(Z))dZ E L B O   L ( Q ) ELBO \:\mathfrak{L}(Q) ELBOL(Q),而公式右边是 K L ( Q ( Z ) ∣ ∣ P ( Z ∣ X ) ) KL(Q(Z)||P(Z|X)) KL(Q(Z)P(ZX))​。

    我们不知道样本X的真实分布,但是客观真理是不会改变的,所以P(X) 和lnP(X) 都是未知的常量。

    等式(4)的右端,ELBO是一个泛函,是Q的函数,由于KL距离是非负的,所以ELBO的上界就是lnP(X) 。
    ln ⁡ ( P ( X ) ) ≥ E L B O   L ( Q ) ln ⁡ ( P ( X ) ) ≥ ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( Q ( Z ) ) d Z (5) \ln(P(X))\geq ELBO \:\mathfrak{L}(Q)\\ \ln(P(X))\geq \int Q(Z)\ln({P(X,Z)})dZ-\int Q(Z)\ln(Q(Z))dZ\tag{5} ln(P(X))ELBOL(Q)ln(P(X))Q(Z)ln(P(X,Z))dZQ(Z)ln(Q(Z))dZ(5)

    我们的目标是最小化KL距离,但其中P(Z|X) 是难以得知的,但式中KL距离和ELBO是此消彼长的关系,这等价于最大化ELBO。所以我们改变优化目标为evidence lower bound(简称ELBO)
    arg ⁡ max ⁡ Q = ∫ Q ( Z ) ln ⁡ ( P ( X , Z ) ) d Z − ∫ Q ( Z ) ln ⁡ ( Q ( Z ) ) d Z arg ⁡ max ⁡ Q = E ( ln ⁡ ( P ( X , Z ) ) − E ( ln ⁡ ( Q ( Z ) ) (6) \arg\max_Q=\int Q(Z)\ln({P(X,Z)})dZ-\int Q(Z)\ln(Q(Z))dZ\\ \arg\max_Q=\mathbb{E}(\ln({P(X,Z)})-\mathbb{E}(\ln(Q(Z))\tag{6} argQmax=Q(Z)ln(P(X,Z))dZQ(Z)ln(Q(Z))dZargQmax=E(ln(P(X,Z))E(ln(Q(Z))(6)

你可能感兴趣的:(GNN,概率论,机器学习,算法,深度学习)