交叉熵损失函数的应用

1.单标签分类任务中的使用(二分类任务包含在其中)

参考:交叉熵在单标签分类任务中的使用

需要注意的是:

对单个样本,假设真实分布为y,网络输出分布为\widehat{y},总的类别数为n,则在这种情况下,交叉熵损失函数的计算方法为:

Loss=-\sum_{i=1}^{n}y_{i}\log \widehat{y_{i}}

对于二分类问题,n=2,这种情况下也是利用上面的交叉熵损失函数,即:Loss=-\sum_{i=1}^{n}y_{i}\log \widehat{y_{i}}=-y_{1}\log \widehat{y_{1}}-y_{2}\log \widehat{y_{2}}=-y\log \widehat{y}-(1-y)\log (1-\widehat{y})

说明了公式Loss=-\sum_{i=1}^{n}y_{i}\log \widehat{y_{i}}的统一性

2.多标签分类任务中的使用

参考:交叉熵在多标签分类任务中的使用

需要注意的是:

在第1节(单标签分类任务中的使用)中,对一个batch,单标签n分类任务的交叉熵损失函数的计算方法为:

Loss=-\frac{1}{batch\_size}\sum_{j=1}^{batch\_size}\sum_{i=1}^{n}y_{ji}\log\widehat{y_{ji}}

这里,若y_{ji}=1的分量才保留

在本节(多标签分类任务中的使用)中,对一个batch,多标签n分类任务的交叉熵损失函数的计算方法为:

Loss=\frac{1}{batch\_size}\sum_{j=1}^{batch\_size}\sum_{i=1}^{n}-y_{ji}\log\widehat{y_{ji}}-(1-y_{ji})\log(1-\widehat{y_{ji}})

这里,y_{ji}=0/1计算得到的分量均保留

 

你可能感兴趣的:(#,深度学习基础知识,深度学习)