交叉熵损失函数(Cross-Entropy Loss)

交叉熵损失函数(Cross-Entropy Loss)是在深度学习中常用的损失函数之一,它适用于分类问题。交叉熵损失函数的作用是衡量预测结果与真实标签之间的差距,从而用于模型的优化。
交叉熵损失函数(Cross-Entropy Loss)_第1张图片
越接近真实标签,损失越小。在交叉熵损失函数中,损失值越接近0,表示模型的预测越接近真实标签。
例如:-1和-100。-1更接近0所以它比-100更接近真实标签。

你可能感兴趣的:(#,知识点,深度学习)