【转】对混淆矩阵、F1-Score、ROC曲线、AUC和KS曲线的理解





(一)混淆矩阵

  混淆矩阵是除了ROC曲线和AUC之外的另一个判断分类好坏程度的方法。下面给出二分类的混淆矩阵

  Predicted as Positive Predicted as Negative
Labeled as Positive  True Positive(TP) False Negative(FN)
Labeled as Negative  False Positive(FP) True Negative(TN)
如上表,可以将结果分为四类: 
* 真正(True Positive, TP):被模型分类正确的正样本; 
* 假负(False Negative, FN):被模型分类错误的正样本; 
* 假正(False Positive, FP):被模型分类错误的负样本; 

* 真负(True Negative, TN):被模型分类正确的负样本;

进一步可以推出这些指标: 
* 真正率(True Positive Rate, TPR),又名灵敏度(Sensitivity):分类正确的正样本个数占整个正样本个数的比例,即:
* 假负率(False Negative Rate, FNR):分类错误的正样本的个数占正样本的个数的比例,即:
* 假正率(False Positive Rate, FPR):分类错误的负样本个数占整个负样本个数的比例,即:
* 真负率(True Negative Rate, TNR):分类正确的负样本的个数占负样本的个数的比例,即:

进一步,由混淆矩阵可以计算以下评价指标: 

* 准确率(Accuracy):分类正确的样本个数占所有样本个数的比例,即: 
【转】对混淆矩阵、F1-Score、ROC曲线、AUC和KS曲线的理解_第1张图片
* 平均准确率(Average per-class accuracy):每个类别下的准确率的算术平均,即: 
【转】对混淆矩阵、F1-Score、ROC曲线、AUC和KS曲线的理解_第2张图片
* 精确率(Precision):分类正确的正样本个数占分类器分成的所有正样本个数的比例(注意:精确率和准确率不同),即: 

* 召回率(Recall):分类正确的正样本个数占正样本个数的比例,即:

 


(二) F1-Score

在介绍F1-Score之前,首先介绍调和平均值,调和平均值为:总体各统计量的倒数的算术平均数的倒数;

F1值为精确率和召回率的调和均值。


例如:某工厂购进材料三批,每批价格及采购金额资料如下表:

【转】对混淆矩阵、F1-Score、ROC曲线、AUC和KS曲线的理解_第3张图片

那么调和平均值为:【转】对混淆矩阵、F1-Score、ROC曲线、AUC和KS曲线的理解_第4张图片




转自: https://blog.csdn.net/fisherming/article/details/79356949

你可能感兴趣的:(图像处理)