Kullback-Leibler Divergence

http://alpopkes.com/files/kl_divergence.pdf

Kullback-Leibler 散度

定义: Kullback-Leibler 散度用于度量两个分布的相似性(或差异)。
对于两个离散概率分布 P 和 Q ,在一个点集合 X 上 Kullback-Leibler 散度定义如下:
D K L ( P ∣ ∣ Q ) = ∑ x ∈ X P ( x ) l o g ( P ( x ) Q ( x ) ) D_{KL}(P||Q)=\sum_{x\in X}^{}P(x)log(\frac{P(x)}{Q(x)} ) DKL(PQ)=xXP(x)log(Q(x)P(x))

对于连续变量上概率分布,求和变成积分:
D K L ( P ∣ ∣ Q ) = ∫ − ∞ ∞ p ( x ) l o g p ( x ) q ( x ) D_{KL}(P||Q)=\int_{\mathrm{-\infty } }^{\infty } p(x)log\frac{p(x)}{q(x)} DKL(PQ)=p(x)logq(x)p(x)
其中 p 和 q 是 概率分布 P 和 Q 的 概率分布函数

Visual Example

在 Wikipedia entry 关于 KL divergence 有一张很 nice 的示意图

Kullback-Leibler Divergence_第1张图片
上图的左边我们看到两个高斯概率分布 p(x) 和 q(x)。 上图右边阴影面积就是对应于 p 和 q 的 KL divergence 计算积分值。我们知道

D K L ( P ∣ ∣ Q ) = ∫ − ∞ ∞ p ( x ) l o g p ( x ) q ( x ) = ∫ − ∞ ∞ p ( x ) ( l o g p ( x ) − l o g q ( x ) ) D_{KL}(P||Q)=\int_{\mathrm{-\infty } }^{\infty } p(x)log\frac{p(x)}{q(x)} =\int_{\mathrm{-\infty } }^{\infty }\mathrm{ p(x)\mathit{} } (\mathrm{log} p(x) -\mathrm{ log} q(x)) DKL(PQ)=p(x)logq(x)p(x)=p(x)(logp(x)logq(x))

所以对于 x 轴上每个点 x i {x_{i}} xi , 我们计算 l o g   p ( x i ) − l o g   q ( x i ) {\mathrm{log} \,p(x_{i})-\mathrm{log} \,q(x_{i})} logp(xi)logq(xi) 然后再乘上 p ( x i ) {p(x_{i})} p(xi) , 接着我们将最终结果作为 y 轴 进行绘制,我们得到上图右边的 y 轴。 KL divergence 对应上面右图的阴影面积

KL divergence in machine learning

在大多数的机器学习问题中,我们有一个数据集 X,它由一个未知的概率分布 P 生成的。 这个 P 分布就是 目标分布(真值分布),我们用一个 Q 分布来近似 P。然后我们可以用 KL divergence 来评估近似分布 Q 的好坏。在许多情况下,例如 variational inference , KL divergence 可作为最优化准则用于寻找最佳近似分布 Q。

Interpreting the KL divergence
Note : 这里我们采用一个概率角度来解释 KL divergence,这对机器学习来说是有用的。

Expected value 期望值
KL divergence 定义公式中用到了期望值,这里我们先回顾一下期望值定义。
对于离散变量 x x x f ( x ) f(x) f(x)的期望值定义为
E [ f ( x ) ] = ∑ x f ( x ) p ( x ) E[f(x)]=\sum_{x}^{} f(x)p(x) E[f(x)]=xf(x)p(x)
其中 p ( x ) p(x) p(x) 是变量 x x x的 概率密度函数。
同样对于连续变量我们有
E [ f ( x ) ] = ∫ − ∞ ∞ f ( x ) p ( x ) E[f(x)]=\int_{-\infty }^{\infty} f(x)p(x) E[f(x)]=f(x)p(x)

Ratio p ( x ) / q ( x ) p(x)/q(x) p(x)/q(x)

我们仔细瞅瞅 KL divergence 的定义公式,我们可以发现KL divergence的定义很像 期望值的定义。当我们设置 f ( x ) = l o g ( p ( x ) q ( x ) ) f(x)=log(\frac{p(x)}{q(x)} ) f(x)=log(q(x)p(x)), 那么我们可以看到

E [ f ( x ) ] = E x ∼ p ( x ) [ l o g ( p ( x ) q ( x ) ) ] = ∫ − ∞ ∞ p ( x ) l o g p ( x ) q ( x ) d x = D K L ( P ∣ ∣ Q ) E[f(x)]=E_{x\sim p(x)} [log(\frac{p(x)}{q(x)} )] =\int_{\mathrm{-\infty } }^{\infty } p(x)log\frac{p(x)}{q(x)}dx =D_{KL}(P||Q) E[f(x)]=Exp(x)[log(q(x)p(x))]=p(x)logq(x)p(x)dx=DKL(PQ)

The KL divergence is simply the expected value of the log-ratio of the entire dataset.

你可能感兴趣的:(机器学习,机器学习)