mAP解释

AP用来处理目标检测问题,Precision和Recall只能处理分类问题。

mAP处理多目标问题,对AP进行简单平均。

 

mAP计算的两个参数

(1)IoU确定一个检测结果(Positive)是正确的(True)还是错误的(False)。

解释:1的confidence score所有结果都是预测框,IoU决定了label的值,也就决定了预测是否是对的。

IOU阈值可以人为确定= 0.5,COCO数据集的评估指标建议对不同的IoU阈值进行计算。

(2)置信度(confidence score)确定预测框是Positive还是 Negative。

解释:小于设定的置信度的结果都不认为是真。

必须用PASCAL VOC CHALLENGE的标准来解决问题,因为不同的模型置信度归一化或者说计算方法不同。

参考文章

1.性能指标(模型评估)之mAP

https://blog.csdn.net/u014203453/article/details/77598997

2.最完整的检测模型评估指标mAP计算指南(附代码)在这里!

https://blog.csdn.net/l7H9JA4/article/details/80745028

文章1对mAP的计算过程讲解较清晰,但是没指出怎么给出ground truth label,也就是没解释IoU起到的作用。

文章2给出了ground truth的解释:计算每个Positive预测框与ground truth的IoU值,并取最大的IoU值,认为该预测框检测到了。然后根据IoU阈值(VOC取0.5),得到label为1的检测框,剩下的都是label为0。

你可能感兴趣的:(mAP解释)