cross entropy loss函数优点

1交叉熵的优点

  1. 能衡量细微的差异。
  2. 凸优化函数,便于利用梯度下降方法找到最优解。
  3. mse在分类初始阶段loss很小,不利于训练,详细见:https://blog.csdn.net/u014313009/article/details/51043064
  4. 回归的时候一般可能用mse

2交叉熵的计算

计算的话是onehot形式然后计算的,所以每一位都可以利用二进制交叉熵来算的,这样对于focal loss理解的话就更方便了。
在这里插入图片描述
在这里插入图片描述
参考:
http://jackon.me/posts/why-use-cross-entropy-error-for-loss-function/
https://blog.csdn.net/xg123321123/article/details/80781611

你可能感兴趣的:(算法学习总结)