交叉熵初识-cross entropy

定义

在信息论中,交叉熵是表示两个概率分布p,q,其中p表示真实分布,q表示非真实分布,在相同的一组事件中,其中,用非真实分布q来表示某个事件发生所需要的平均比特数。

举例

假设现在有一个样本集中两个概率分布p,q,其中p为真实分布,q为非真实分布。假如,按照真实分布p来衡量识别一个样本所需要的编码长度的期望为:



但是,如果采用错误的分布q来表示来自真实分布p的平均编码长度,则应该是:



此时就将H(p,q)称之为交叉熵。交叉熵的计算方式如下:
交叉熵初识-cross entropy_第1张图片

以上内容来自交叉熵-百度百科

到这里自己有两个地方不明白:

  • 什么事真事分布与非真实分布?
  • 什么编码长度?
    要搞懂这些,还需要看一些信息论中的知识,于是乎找到这篇文章:
    信息论中的一些基本的知识
    静下心看吧:看完之后自己浮躁的心平静下来了

你可能感兴趣的:(交叉熵初识-cross entropy)