交叉熵损失函数和似然估计_平方损失函数与交叉熵损失函数 & 回归问题为何不使用交叉熵损失函数...

讲解平方损失函数与交叉熵损失函数 适用的情况以及 解释了原因。

特别是回归问题为什么不能使用 交叉熵损失函数。

博客链接:https://blog.csdn.net/m_buddy/article/details/80224409

平方损失函数与交叉熵损失函数

交叉熵与均方差https://blog.csdn.net/dawnranger/article/details/78031793

这里的categorical cross-entropy其实就是 log 似然损失函数。

机器学习中的损失函数  https://blog.csdn.net/rosenor1/article/details/52302217

为什么交叉熵可以作为损失函数?https://blog.csdn.net/iloveyousunna/article/details/79205347

softmax和sigmoid以及SVMhttps://blog.csdn.net/qq_35550465/article/details/82704189

对数损失函数是如何度量损失的?https://www.zhihu.com/question/27126057

机器学习中常见的损失函数https://www.cnblogs.com/houjun/p/8956384.html

以上图片来自: https://blog.csdn.net/hearthougan/article/details/82706834

softmax 交叉熵损失函数求导: https://www.jianshu.com/p/6e405cecd609

https://blog.csdn.net/qingyang666/article/details/70245855

https://www.cnblogs.com/klchang/p/9217551.html   对数损失函数(Logarithmic Loss Function)的原理和 Python 实现

用于Multinoulli(多项分布)输出分布的softmax单元   https://blog.csdn.net/weixin_40516558/article/details/79962674

多项式分布及Softmax回归模型推导https://blog.csdn.net/liuyhoo/article/details/81542100

你可能感兴趣的:(交叉熵损失函数和似然估计)