深度学习之损失函数的介绍【详解】

文章目录

      • 1、Cross Entropy Loss(交叉熵)
      • 2、Binary Cross Entropy Loss(二元交叉熵)
      • 3、Balance Binary Cross Entropy Loss(平衡二元交叉熵)
      • 4、Focal Loss

1、Cross Entropy Loss(交叉熵)

公式:
L = − ∑ i y i ⋅ l o g ( p i ) L=-\sum _i y_i \cdot log(p_i) L=iyilog(pi)

其中 y i y_i yi 为人工标注的, p i p_i pi 为预测的概率;

2、Binary Cross Entropy Loss(二元交叉熵)

公式:
H p ( q ) = − 1 N [ ∑ i = 1 N y i ⋅ l o g ( p ( y i ) ) + ( 1 − y i ) ⋅ l o g ( 1 − p ( y i ) ) ] H_{p(q)}=-\frac{1}{N}[\sum^N_{i=1}y_i \cdot log(p(y_i))+(1-y_i) \cdot log(1-p(y_i))] Hp(q)=N1[i=1Nyilog(p(yi))+(1yi)log(1p(yi))]
[ ] [ ] []里面表示的是单个样本分别预测正样本和负样本的概率。

3、Balance Binary Cross Entropy Loss(平衡二元交叉熵)

深度学习之损失函数的介绍【详解】_第1张图片
目的:解决正负样本不平衡的问题。

4、Focal Loss

深度学习之损失函数的介绍【详解】_第2张图片
( 1 − p ) γ (1-p)^\gamma (1p)γ用于难样本的挖掘,如一个样本预测正样本的概率较低,则 ( 1 − p ) γ (1-p)^\gamma (1p)γ会加大正样本的权重, p γ p^\gamma pγ会减少负样本的权重;

你可能感兴趣的:(深度学习,图像算法,深度学习,机器学习)