深度学习解释:Precision、Recall、IoU、Ap/mAp

深度学习的指标都是(APAverage Precision)

二分类情况下的Precision(查重率)和Recall(查全率)

对于二分类问题,可将样例根据其真实类别与学习器预测类别的组合划分为真正例(true positive)、假正例(false positive)、真反例(true negative)、假反例(false negative)四种情形,令TP、FP、TN、FN分别表示其对应的样例数,则显然有TP+FP+TN+FN=样例总数。
深度学习解释:Precision、Recall、IoU、Ap/mAp_第1张图片
TP = T+P , 前面的字母代表此次预测是否正确,后面的字母代表预测结果。

Precision 精确率

深度学习解释:Precision、Recall、IoU、Ap/mAp_第2张图片
Precision为我们预测为正例中真正例的比例

Recall

召回率计算公式:
深度学习解释:Precision、Recall、IoU、Ap/mAp_第3张图片
TP+FN为所有的正样本集合,所以Recall为所有正样本中正确被预测出来的比例

Accuracy准确率

在这里插入图片描述
Accuracy代表所有样本中正负样本预测正确的比例

AP和mAP

AP(average precision),就是PR曲线下的面积,这里average,等于是对recall取平均。而mAP(mean average precision)的mean,是对所有类别的AP取平均(每一个类当做一次二分类任务)。现在的图像分类论文基本都是用mAP作为标准。

IoU

转载自IoU的理解

IoU是一种测量在特定数据集中检测相应物体准确度的一个标准。IoU是一个简单的测量标准,只要是在输出中得出一个预测范围(bounding boxex)的任务都可以用IoU来进行测量。为了可以使IoU用于测量任意大小形状的物体检测,我们需要:
1.ground-truth bounding boxes(人为在训练集图像中标出要检测物体的大概范围)
2.我们的算法得出的结果范围。
这个标准用于测量真实和预测之间的相关度,相关度越高,该值越高。
如下图所示。绿色标线是人为标记的正确结果(ground-truth),红色标线是算法预测的结果(predicted)。
深度学习解释:Precision、Recall、IoU、Ap/mAp_第4张图片

IoU的计算

IoU是两个区域重叠的部分除以两个区域的集合部分得出的结果,通过设定的阈值,与这个IoU计算结果比较
深度学习解释:Precision、Recall、IoU、Ap/mAp_第5张图片
深度学习解释:Precision、Recall、IoU、Ap/mAp_第6张图片

你可能感兴趣的:(深度学习)