正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值

准确率(accuaracy)= (TP+TN)/ ALL 即(TP+TN+FP+FN),是我们最熟知的。

正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值

1.正确率(precision)= TP / (TP + FP) 真正正确的在所有判断为正确的比例。(真正正确的比例)

2.召回率(recall) = TP/(TP+FN)    在所有正确的例子中,正确例子的被判断出来的概率。(也有没被判断出来的,FN)

3.F1-值(F1-score) = 2 * TP / (2 * TP+FP+FN)  是正确率和召回率的调和均值。F1 score 给了精度和召回率相同的权重。

正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值_第1张图片

正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值_第2张图片

4.ROC 曲线,Receiver Operating Characteristic curve

ROC 曲线展示了当改变在模型中识别为正例的阈值时,召回率和精度的关系会如何变化。

 True\quad positive\quad rate =\frac{TP}{TP+FN}          TPR         (recall)

False\quad positive\quad rate=\frac{FP}{FP+TN}          FPR

正确率/精度(precision),召回率(recall),F1-score,ROC 曲线,AUC值_第3张图片

真正的理想情况,TPR应接近1,FPR接近0,即图中的(0,1)点。ROC曲线越靠拢(0,1)点,越偏离45度对角线越好 

4.AUC值AUC (Area Under Curve) 被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。又由于ROC曲线一般都处于y=x这条直线的上方,所以AUC的取值范围一般在0.5和1之间。

AUC = 1,是完美分类器

0.5 < AUC < 1,优于随机猜测。这个分类器有预测价值。

AUC = 0.5,跟随机猜测一样。模型没有预测价值。

AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

 

参考链接:https://blog.csdn.net/u013063099/article/details/80964865

                  https://www.jianshu.com/p/1afbda3a04ab

你可能感兴趣的:(ML/DL学习,正确率,召回率,ROC,F1值)