机器学习mAP之我见

mAP(mean Average Precision)


Precision and Recall

       在模型评估时,我们往往会参照一些性能指标,最基本的如准确率和召回率。看过西瓜书的同学应该对下面这张表格很熟悉:
| | predicted:P | predicted:F
-------- | —
actual:P | TP |FN
actual:N | FP |TN
       这张表其实很好记忆,横着看(actual:P和actual:N)代表实际所属的类别;竖着看(predicted:P和predicted:N)代表预测的类型。如果实际和预测都一样,那就是真正例(TP)和真反例(TN),对应表格的主对角线。如果实际是反例却预测成了正例,那就是假正例(FP),注意,这都是与实际的标签(actual)来对比的,同理可推出FN。
       在了解了表格的意义之后,就很好解释准确率§和召回率®了:

P=TPTP+FP\frac{TP}{TP+FP}TP+FPTP

R=TPTP+FN\frac{TP} {TP+FN}TP+FNTP

       准确率P是评估你预测的准不准(看预测列),而召回率R是看你找的全不全(看实际行)。如果处理平衡数据集用这些性能指标还好说,但是一旦你的数据集不平衡,那么这些指标可参考的价值就不那么具备参考性了。举个例子:对于一个二分类问题,如果其中90%是正样本,只有10%是负样本的话,而我的模型就是全部输出为正样本的分类器,那么准确率依然高达90%,但是这样并没有意义。所以提出了AP的概念。


mAP的概念可以参考:
https://medium.com/@jonathan_hui/map-mean-average-precision-for-object-detection-45c121a31173


Tips:
1.本文只是一个学习笔记,内容可能会有错误,仅供参考。
2.如果你发现文中的错误,欢迎留言指正,谢谢!

你可能感兴趣的:(机器学习)