分类器评价指标

混淆矩阵 Confusion Matrix

分类器评价指标_第1张图片

  1. Accuracy = (TP+TN)/(TP+FP+TN+FN) ;
  2. Precision = TP/(TP+FP); //预测对的正样本在所有预测为正的样本中的比例
  3. Recall = TP/(TP+FN); //预测对的正样本在所有真正正样本中的比例, 也叫真正类率(True Positive Rate)(TPR)
  4. F1-score = 2*Precision*Recall/(Precision + Recall);
  5. Specificity = TN/(FP+TN);
  6. ROC(Receiver Operating Characteristic)曲线由两个变量绘制,
    横坐标是负正类率(FPR),纵坐标是真正类率(TPR);
  7. AUC(Area Under Curve)为ROC曲线下的面积。

1). Sensitivity = Recall = TPR(True Positive Rate) = TP/(TP+FN);
2). FPR=FP/(FP+TN);
3). Specificity + FPR = 1.

Fb-score是准确率和召回率的调和平均
Fb=[(1+b^2)*P*R]/((b^2)*P+R),比较常用的是F1.

绘制ROC曲线:

http://www.douban.com/note/284051363/?type=like

precision与recall,前者是在预测为正的样本中的比例,后者是在真正为正的样本中的比例,别记混了,找工作可能会问到的!:)

你可能感兴趣的:(ROC,recall,precision,混淆矩阵,f1-score)