交叉熵 vs logloss

https://blog.csdn.net/guolindonggld/article/details/79250642
https://zhuanlan.zhihu.com/p/35709485

image.png

-np.average(label*pred_score) or -np.average(np.multiply(label*pred_score))
average(label值为1的pred_score)


  1. cross entroy 和 log loss 在二分类问题下是等价的;(logloss描述的是二分类)
  2. cross entroy 是-p*log(q) (p是真实的概率,一般情况下是取真实的label,也就退化成了0和1,因为和log loss等价)

你可能感兴趣的:(交叉熵 vs logloss)