008 机器学习概念回顾、精确率、召回率、F1-score、准确率、AUC、ROC曲线

转载于:https://www.jianshu.com/p/2ad360edd219

  • 精确率、召回率、F1-score、准确率
    首先来一个我们熟悉的混淆矩阵的图,这是一个二分类的混淆矩阵的图:
008 机器学习概念回顾、精确率、召回率、F1-score、准确率、AUC、ROC曲线_第1张图片
混淆矩阵
Item 说明 预测正确与否
TP 将实际为正样例预测为正样例的个数 对,真正类
TN 将实际为负样例预测为负样例的个数 对,真负类
FP 将实际为正样例预测为负样例的个数 错,假正类
FN 将实际为负样例预测为正样例的个数 错,假负类
TP+FP 总的样例被预测为正样例的个数
FN+TN 总的样例被预测为负样例的个数
TP+FN 实际的正样例个数
FP+TN 实际的负样例个数

下标对一些度量的概念和公式进行说明

性能度量 公式 说明
精确率(precision) 分母为预测为正样例的个数,分子为预测为实际正样例被预测准的个数
召回率(recall) 分母为实际正样例的个数,分子为预测为实际正样例被预测准的个数
F1-score 混合的度量,对不平衡类别非常有效
准确率(accuracy) 模型的整体的性能的评估
Specificity 分母为实际负样例的个数,分子为预测为实际负样例被预测准的个数

举个例子:
我们实际有50个样例,50个负样例,然后经过分类器分类之后。50个正样例中有45个预测为正样例(预测准了),5个被预测成为了负样例。50个负样例中(预测错误),有40个被预测为了负样例(预测准了),10个被预测为了正样例(预测错误)。

实际情况 预测为正 预测为负
50正 45 5
50负 10 40

根据这个例子,我们可以计算出:

性能度量 公式
精确率(precision)
召回率(recall)
F1-score
准确率(accuracy)
Specificity

下图很形象的说明了精确率和召回率的计算

008 机器学习概念回顾、精确率、召回率、F1-score、准确率、AUC、ROC曲线_第2张图片
image.png
  • ROC和AUC曲线

    ROC = The receiver operating curve,翻译过来就是受试者工作曲线,这条曲线的横轴为假正例率、纵轴是真正例率。

AUC = the area under the receiving operating curve。也就下图中蓝色部分的区域


008 机器学习概念回顾、精确率、召回率、F1-score、准确率、AUC、ROC曲线_第3张图片
image.png

理想目标:TPR=1,FPR=0,即图中(0,1)点,故ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。

你可能感兴趣的:(008 机器学习概念回顾、精确率、召回率、F1-score、准确率、AUC、ROC曲线)