分类问题中的交叉熵损失和均方损失

分类问题的损失函数

  1. 交叉熵损失(Cross Entropy Loss):假设误差是二值分布,可以视为预测概率分布和真实概率分布的相似程度。在分类问题中有良好的应用

    CE(θ)=i=1nyilog(y^i)

    其中 yi 表示真实概率分布,只有 yk=1 ,而 yj=0 jk y^i 表示预测概率分布,设它的输入为 θi ,则 y^i=softmax(θi)=exp(θi)jexp(θj)

  2. 均方损失(Mean Square Loss):假设误差是正态分布,适用于线性的输出,特点是对于与真实结果差别越大,则惩罚力度越大,这并不适用于分类问题。

    MS(θ)=1ni=1n(yiy^i)2

    其中 y^i=Wθi 表示 θi 的线性输出。


交叉熵的求导过程

由于只有 yk=1 ,而 yj=0 jk ,则有

CE(θ)====i=1nyilog(y^i)log(y^k)log(exp(θk)jexp(θj))θk+log(jexp(θj))


CE(θ)θ=θkθ+θlog(jexp(θj))

而根据 θkθk=1 θkθq=0 qk ,得到
θkθθilog(jexp(θj))==010exp(θi)jexp(θj)==yy^i

最终得到
CEθ=θlog(jexp(θj))θkθ=y^y

  • 参考链接
  • Why You Should Use Cross-Entropy Error Instead Of Classification Error Or Mean Squared Error For Neural Network Classifier Training
  • What’s the difference between cross-entropy and mean-squared-error loss functions?
  • Why is the Cross Entropy method preferred over Mean Squared Error?

你可能感兴趣的:(深度学习)