信息论基础(信息量、熵、KL散度、交叉熵)

信息论基础(信息量、熵、KL散度、交叉熵)

文章目录

  • 信息论基础(信息量、熵、KL散度、交叉熵)
    • 1. 信息量与熵
    • 2. KL散度与交叉熵
      • 交叉熵与 L o g i s t i c Logistic Logistic回归
    • 后续待补充

我们知道同为正态分布的两个模型可以通过均值和方差进行模型之间的差异比较。那不同类别的模型,比如正态分布和泊松分布之间应该如何衡量差异呢?

答:只要是两个概率模型,就能被( E n t r o p y Entropy Entropy)统一衡量。

熵:在信息论中用来表示随机变量不确定性的度量。


1. 信息量与熵

先引入自信息/信息量:

自信息 s e l f   i n t r o d u c t i o n self\ introduction self introduction:表示一个随机事件所包含的信息量,一个随机事件发生的概率越高,其自信息越低;必然事件的自信息为0。

信息量是指信息多少的度量(一个事件从不确定变为确定,他的难度有多大)。比如中国足球队夺冠概率为 1 1024 \frac{1}{1024} 10241,你却告诉我他夺冠了,那么这个"信息"就有10bit的信息量。

  • 随机变量 X X X,当 X = x i X=x_i X=xi时的自信息 / 信息量 I ( x ) I(x) I(x)定义为: I ( x i ) = − l o g   p i I(x_i) = -log\ p_i I(xi)=log pi
  • p i 为 X 取值为 x i p_i为X取值为x_i piX取值为xi的概率;
    对数的底数可以为2、 e e e和10,为2时单位为bit,为 e e e时单位为纳特 n a t nat nat

信息量一个具体事件从不确定变为确定的难度有多大。信息量越大说明难度越高。
类似,但不是衡量一个具体事件,熵用来衡量整个系统中的所有事件,即一个系统从不确定变为确定的难度有多大

  • 对于分布为 p ( x ) p(x) p(x)的随机变量 X X X,其信息量/自信息的期望为熵。公式为: H ( X ) = E ( − l o g   p i ) = − ∑ i = 1 n p i   l o g   p i H(X)=E(-log\ p_i)=-\sum_{i=1}^n p_i \ log\ p_i H(X)=E(log pi)=i=1npi log pi

2. KL散度与交叉熵

ok,回到开始的问题,如何比较两个概率模型。

如果直接算出两个概率模型的熵来比较大小,有些简单粗暴。
那么引入KL散度/相对熵

D K L ( P ∣ ∣ Q ) :以 P 为基准考虑 P 和 Q 相差多少 D_{KL}(P||Q):以P为基准考虑P和Q相差多少 DKL(P∣∣Q):以P为基准考虑PQ相差多少

D K L ( P ∣ ∣ Q ) : = ∑ i = 1 m p i ( I Q ( q i ) − I P ( p i ) ) = ∑ i = 1 m p i ( ( − l o g 2 q i ) − ( − l o g 2 p i ) ) = ∑ i = 1 m p i ( − l o g 2 q i ) − ∑ i = 1 m p i ( − l o g 2 p i ) = H ( P , Q ) − H ( P ) 一般形式:   D K L ( P ∣ ∣ Q ) = ∑ i p i l o g p i q i D_{KL}(P||Q) := \sum_{i=1}^m p_i(I_Q(q_i) - I_P(p_i)) = \sum_{i=1}^m p_i((-log_2q_i) - (-log_2p_i))\\ =\sum_{i=1}^m p_i(-log_2q_i) - \sum_{i=1}^m p_i(-log_2p_i) = H(P,Q) - H(P)\\ 一般形式:\ \ D_{KL}(P||Q) =\sum_i p_i log\frac{p_i}{q_i} DKL(P∣∣Q):=i=1mpi(IQ(qi)IP(pi))=i=1mpi((log2qi)(log2pi))=i=1mpi(log2qi)i=1mpi(log2pi)=H(P,Q)H(P)一般形式:  DKL(P∣∣Q)=ipilogqipi

H§就是P的熵,恒定不变;
H(P,Q)为交叉熵
KL散度=0时,P和Q最接近

由吉布斯不等式可知:KL散度≥0,QP相等时=0。那么要想让P和Q概率模型非常接近,就需要找到交叉熵 H ( P , Q ) H(P,Q) H(P,Q)的最小值。

交叉熵公式:
H ( P , Q ) = − ∑ i = 1 m p i   l o g q i H(P,Q) = -\sum_{i=1}^m p_i\ log q_i H(P,Q)=i=1mpi logqi

交叉熵与 L o g i s t i c Logistic Logistic回归

对于 L o g i s t i c Logistic Logistic回归,假设真实的 l a b e l label label概率分布为 P ( x ) P(x) P(x),模型预测的为 Q ( x ) Q(x) Q(x),那么就可以用KL散度衡量预测值与真实值概率模型之间的差异

KL散度公式:

D K L ( P ∣ ∣ Q ) = H ( P , Q ) − H ( P ) D_{KL}(P||Q) = H(P,Q) - H(P) DKL(P∣∣Q)=H(P,Q)H(P)

然后 H ( P ) H(P) H(P)(真实值的熵)为固定值,所以 H ( P , Q ) H(P,Q) H(P,Q)交叉熵越小,KL散度越大,预测值与真实值之间差异越大,故选取交叉熵作为 l o g i s t i c logistic logistic回归的损失函数

根据交叉熵公式:
l o g i s t i c logistic logistic回归中 m = 2 m=2 m=2,得到二元交叉熵
H ( P , Q ) = − ( p 1 ( l o g q 1 ) + p 2 ( l o g q 2 ) ) = − ( p 1 ( l o g q 1 ) + ( 1 − p 1 ) ( l o g ( 1 − q 2 ) ) ) = − ( y l o g ( h θ ( x ) ) + ( 1 − y ) l o g ( 1 − h θ ( x ) ) ) H(P,Q) = -( p_1(logq_1) + p_2(logq_2) )\\ = -( p_1(logq_1) + (1-p_1)(log(1-q_2)))\\ = -(ylog(h_\theta (x)) + (1-y)log(1-h_\theta (x))) H(P,Q)=(p1(logq1)+p2(logq2))=(p1(logq1)+(1p1)(log(1q2)))=(ylog(hθ(x))+(1y)log(1hθ(x)))

后续待补充

参考:
B站 - 王木头学科学
神经网络与深度学习 - 邱锡鹏

你可能感兴趣的:(AI,机器学习,逻辑回归,回归)