二元交叉熵 binary cross entropy

二元交叉熵 binary cross entropy

理解一下这个损失函数,一般来说,适用于二分类任务,但是在几个推荐系统的paper中看到了这个损失函数,先上公式:
L o s s = − 1 N ∑ i = 1 N y i ⋅ log ⁡ ( p ( y i ) ) + ( 1 − y ) ⋅ log ⁡ ( 1 − p ( y i ) ) Loss=-\frac1N\sum_{i=1}^Ny_i \cdot\log(p(y_i))+(1-y)\cdot\log(1-p(y_i)) Loss=N1i=1Nyilog(p(yi))+(1y)log(1p(yi))
其中, y i = { 0 , 1 } y_i=\{0,1\} yi={0,1}是二元标签, p ( y ) p(y) p(y)是输出属于 y y y标签的概率。

我们期望 y i = 1 y_i=1 yi=1的时候 p ( y ) p(y) p(y)越大越好,看一下理想情况: y y y是正例的时候, p ( y ) = 1 p(y)=1 p(y)=1,损失就是0;反过来看, p ( y ) p(y) p(y)趋于0, log ⁡ p ( y ) \log p(y) logp(y)就趋于负无穷,导致损失非常大。

你可能感兴趣的:(机器学习,概率论,深度学习,机器学习)