准确率、精确率、召回率

在机器学习领域,模型评估中的TP、TN、FP、FN、准确率、精确率等,实在是令人傻傻分不清,今天就好好缕缕这些概念。
混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。


准确率、精确率、召回率_第1张图片
混淆矩阵
准确率、精确率、召回率_第2张图片
二分类混淆矩阵例子

TP:预测为正向(P),实际上预测正确(T),即判断为正向的正确率
TN:预测为负向(N),实际上预测正确(T),即判断为负向的正确率
FP:预测为正向(P),实际上预测错误(F),误报率,即把负向判断成了正向
FN:预测为负向(N),实际上预测错误(F),漏报率,即把正向判断称了负向

2、准确率(Accuracy)

准确率是最常用的分类性能指标。
Accuracy = (TP+TN)/(TP+FN+FP+TN)
即预测正确的比上全部的数据,可理解为预测正确率。
例:预侧对的5只狗+预测对的4只猫【比上】全部的数据10。 Accuracy=9/10


准确率、精确率、召回率_第3张图片
准确率

3、精确率(Precision)

精确率容易和准确率被混为一谈。其实,精确率只是针对预测正确的正样本而不是所有预测正确的样本。表现为预测出是正的里面有多少真正是正的。可理解为查准率。
Precision = TP/(TP+FP)
即正确预测的正例数 /预测正例总数。
例:预测对的5只狗【比上】预测为狗的总数5+0=5,Precision=5/5


准确率、精确率、召回率_第4张图片
精确率

4、召回率(Recall)

召回率表现出在实际正样本中,分类器能预测出多少。可理解为查全率。
Recall = TP/(TP+FN),即正确预测的正例数 /实际正例总数。
即在所有实际的正向数据中,有多少预测正确了。
例如:预测对的5只狗【比上】实际为狗的总数是5+1=6


准确率、精确率、召回率_第5张图片
召回率

5、F1 score

F值是精确率和召回率的调和值,更接近于两个数较小的那个,所以精确率和召回率接近时,F值最大。很多推荐系统的评测指标就是用F值的。
2/F1 = 1/Precision + 1/Recall

你可能感兴趣的:(准确率、精确率、召回率)