熵、相对熵和交叉熵的区别与联系

目录

  • 一.信息量
  • 二.熵(信息熵)
  • 三.相对熵(KL散度)
  • 四.交叉熵
  • 五.交叉熵在单分类问题中的应用

一.信息量

信息奠基人香农(Shannon)认为“信息是用来消除随机不确定性的东西”,也就是说衡量信息量的大小就是看这个信息消除不确定性的程度。
“太阳从东边升起”,这条信息并没有减少不确定性,因为太阳肯定是从东边升起的,这是一句废话,信息量为0。
”2018年中国队成功进入世界杯“,从直觉上来看,这句话具有很大的信息量。因为中国队进入世界杯的不确定性因素很大,而这句话消除了进入世界杯的不确定性,所以按照定义,这句话的信息量很大。
根据上述可总结如下:信息量的大小与信息发生的概率成反比。概率越大,信息量越小。概率越小,信息量越大。
设某一事件发生的概率为P(x),其信息量表示为:
I ( x ) = − l o g ( P ( x ) ) I(x)=−log(P(x)) I(x)=log(P(x))
I(x)表示信息量,log表示以e为底的自然对数。

二.熵(信息熵)

信息熵用来表示所有信息量的期望。
期望是试验中每次可能结果的概率乘以其结果的总和,所以信息量的熵可表示为(这里的X是一个离散型随机变量):
在这里插入图片描述
H(X)表示X变量的信息熵,xi表示X不同的取值,例如使用明天的天气概率来计算其信息熵:
熵、相对熵和交叉熵的区别与联系_第1张图片
H ( X ) = − ( 0.5 ∗ l o g ( 0.5 ) + 0.2 ∗ l o g ( 0.2 ) + 0.3 ∗ l o g ( 0.3 ) ) H(X)=−(0.5∗log(0.5)+0.2∗log(0.2)+0.3∗log(0.3)) H(X)=(0.5log(0.5)+0.2log(0.2)+0.3log(0.3))
对于0-1分布的问题,由于其结果只有是或不是,设某一件事情发生的概率为P(x),则另一件事情发生的概率为1−P(x),所以对于0-1分布的问题,计算熵的公式可以简化如下:
熵、相对熵和交叉熵的区别与联系_第2张图片

三.相对熵(KL散度)

如果对于同一个随机变量X有两个单独的概率分布P(x)和Q(x),则我们可以使用KL散度来衡量这两个概率分布之间的差异。
下面直接列出公式,再举例子加以说明。
在机器学习中,常常使用P(x)来表示样本的真实分布,Q(x)来表示模型所预测的分布,比如在一个三分类任务中(例如,猫狗马分类器),x1,x2,x3分别代表猫、狗、马,假设一张猫的图片真实分布P(X)=[1,0,0], 预测分布Q(X)=[0.7,0.2,0.1],计算KL散度:
熵、相对熵和交叉熵的区别与联系_第3张图片
KL散度越小,表示P(x)与Q(x)的分布更加接近,可以通过反复训练Q(x)来使Q(x)的分布逼近P(x)。
相对熵KL散度具有非负性和不对称性。

四.交叉熵

交叉熵是信息论中的一个重要概念,主要用于度量两个概率分布间的差异性,首先将上述KL散度公式拆开:
熵、相对熵和交叉熵的区别与联系_第4张图片
前者H(p(x))表示信息熵,后者即为交叉熵,KL散度 = 交叉熵 - 信息熵
交叉熵公式表示为:
在这里插入图片描述
在机器学习训练网络时,输入数据与标签常常已经确定,那么真实概率分布P(x)也就确定下来了,所以信息熵H(X)在这里就是一个常量。
由于KL散度的值表示真实概率分布P(x)与预测概率分布Q(x)之间的差异,值越小表示预测的结果越好,所以需要最小化KL散度。
而交叉熵等于KL散度加上一个常量(信息熵),且公式相比KL散度更加容易计算,所以在机器学习中常常使用交叉熵损失函数来计算loss。

五.交叉熵在单分类问题中的应用

在线性回归问题中,常常使用MSE(Mean Squared Error)作为loss函数,而在分类问题中常常使用交叉熵作为loss函数。
例:假设输入一张狗的图片,标签与预测值如下:
在这里插入图片描述
损失函数:
l o s s = − ( 0 ∗ l o g ( 0.2 ) + 1 ∗ l o g ( 0.7 ) + 0 ∗ l o g ( 0.1 ) ) = 0.36 loss=−(0∗log(0.2)+1∗log(0.7)+0∗log(0.1))=0.36 loss=(0log(0.2)+1log(0.7)+0log(0.1))=0.36
一个batch的loss为(m为样本个数):
在这里插入图片描述
:交叉熵能够衡量同一个随机变量中的两个不同概率分布的差异程度,在机器学习中就表示为真实概率分布与预测概率分布之间的差异。交叉熵的值越小,模型预测效果就越好。交叉熵在分类问题中常常与softmax是标配,softmax将输出的结果进行处理,使其多个分类的预测值和为1,再通过交叉熵来计算损失。

你可能感兴趣的:(熵、相对熵和交叉熵的区别与联系)