交叉熵损失函数

交叉熵常用于分类任务中,如有一张牛的图片,经过一个神经网络,softmax函数输出牛的概率为0.8,羊的概率为0.1,猴的概率为0.1。右侧对应于该图片的groundTrue图片采用One-hot编码为100.

交叉熵损失函数_第1张图片

如何衡量模型输出与标签之间的差距呢?

  1. 标签为100,只有样本one-hot为1的的类别才产生Loss损失。
  2. 只有当预测概率为1时,loss值才为0,对真实样本预测值越低loss函数值越大。
  3. 由于log在[0,1]区间函数值为负值,所以在Loss函数前加 –号。

交叉熵损失函数_第2张图片

你可能感兴趣的:(深度学习,python,深度学习)