对数损失函数(Logarithmic Loss Function)的原理和 Python 实现

对数损失, 即 对数似然损失(Log-likelihood Loss) , 也称 逻辑斯谛回归损失(Logistic Loss)交叉熵损失(cross-entropy Loss) , 是在概率估计上定义的.它常用于(multi-nominal, 多项)逻辑斯谛回归和神经网络,以及一些期望极大算法的变体. 可用于评估分类器的概率输出.

对数损失通过惩罚错误的分类,实现对分类器的准确度(Accuracy)的量化. 最小化对数损失基本等价于最大化分类器的准确度.为了计算对数损失, 分类器必须提供对输入的所属的每个类别的概率值, 不只是最可能的类别. 对数损失函数的计算公式如下:
在这里插入图片描述

其中, Y 为输出变量, X为输入变量, L 为损失函数. N为输入样本量, M为可能的类别数, yij 是一个二值指标, 表示类别 j 是否是输入实例 xi 的真实类别. pij 为模型或分类器预测输入实例 xi 属于类别 j 的概率.

如果只有两类 {0, 1}, 则对数损失函数的公式简化为

这时, yi 为输入实例 xi 的真实类别, pi 为预测输入实例 xi 属于类别 1 的概率. 对所有样本的对数损失表示对每个样本的对数损失的平均值, 对于完美的分类器, 对数损失为 0 .

其他参考资料
【深度学习】一文读懂机器学习常用损失函数(Loss Function) - 郭耀华 - 博客园

你可能感兴趣的:(对数损失函数(Logarithmic Loss Function)的原理和 Python 实现)