损失函数(自整理)

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录

  • 前言
  • 一、回归任务
    • 1.1 L1平均绝对差损失(Mean Absolute Error Loss,MAE)
    • 1.2 L2 均方根损失 (Root Mean Squared Error Loss,RMSE)
    • 1.3 均方差损失(Mean Squared Error Loss,MSE)
    • 1.4 平滑L1 损失函数(Smooth L1 Loss)
    • 1.5 huber loss
  • 二、分类任务
    • 2.1 0-1损失函数(zero-one loss)
    • 2.2 交叉熵损失(Cross Entropy loss)
    • 2.3 合页损失(Hinge Loss)
    • 2.4 Softmax Loss
    • 2.5 Focal Loss
    • 2.6 Dice Loss
    • 2.7 BCE loss
  • 三、特殊任务
    • 3.1 人脸识别
    • 3.2 风格迁移
  • 总结


前言

本篇文章主要是记录一下不同场景,不同任务下的损失函数,主要会对比不同损失函数之间的特点,优缺点,以及应用场景


一、回归任务

1.1 L1平均绝对差损失(Mean Absolute Error Loss,MAE)

1.2 L2 均方根损失 (Root Mean Squared Error Loss,RMSE)

1.3 均方差损失(Mean Squared Error Loss,MSE)

1.4 平滑L1 损失函数(Smooth L1 Loss)

1.5 huber loss

二、分类任务

2.1 0-1损失函数(zero-one loss)

2.2 交叉熵损失(Cross Entropy loss)

2.3 合页损失(Hinge Loss)

2.4 Softmax Loss

2.5 Focal Loss

2.6 Dice Loss

2.7 BCE loss

三、特殊任务

3.1 人脸识别

3.2 风格迁移


总结

提示:这里对文章进行总结:
例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。

你可能感兴趣的:(人工智能,机器学习)