目标检测中常见指标

1、正例与负例

现在假设我们的分类目标只有两类,计为正例(positive)和负例(negtive),然后我们就能得到如下的四种情况:

(1)True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);loU>0.5的检测框数量(同一Ground Truth只计算一次)

(2)False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数; loU<=0.5的检测框(或者是检测到同一个GT的多余检测框的数量

(3)False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;没有检测到的GT的数量

(4)True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。

通俗理解TP、FP、TN、FN
TP真的很真。FP把假的认成了真的,假的真不了。TN真的是假的。FN把真的认成了假的,真的假不了。

2、P(精确率)

P 代表 precision,即精确率,精确率表示预测样本中实际正样本数占所有正样本数的比例,计算公式为:

精确率 = 正确预测样本中实际正样本数 / 所有的正样本数

即 precision = TP/(TP+FP);模型预测的所有目标中,预测正确的比例

3、R(召回率)

R 代表 recall ,即召回率,召回率表示预测样本中实际正样本数占所有预测的样本的比例,计算公式为:

召回率 = 正确预测样本中实际正样本数 /实际的正样本数

即 Recall = TP/(TP+FN) ;所有真实目标中,模型预测正确的目标比例

一般来说,召回率越高,准确率越低

4、ACC(准确率)

ACC 代表 Accuracy,即准确率,准确率表示预测样本中预测正确数占所有样本数的比例,计算公式为:

准确率 = 预测样本中所有被正确分类的样本数 / 所有的样本数

即 ACC = (TP+TN)/(TP+FP+TN+FN);

5、AP(平均精确度)

AP 代表 Average Precision,即平均精确度。

6、mAP简介

mAP 是 Mean Average Precision 的缩写,即均值平均精度。各类别AP的平均值。作为 object dection 中衡量检测精度的指标。计算公式为:

mAP = 所有类别的平均精度求和除以所有类别。

7、P—R曲线

P-R曲线,顾名思义,就是P-R的关系曲线图,表示了召回率和准确率之间的关系;我们可以在坐标系上做以 precision 和 recall 作为 纵、横轴坐标 的二维曲线。
目标检测中常见指标_第1张图片上图就是一个P-R曲线的例子,通过这几个例子,我们能够发现一个规律:精度越高,召回率越低,当召回达到1时,对应概率分数最低的正样本,这个时候正样本数量除以所有大于等于该阈值的样本数量就是最低的精度值。
转自:https://aistudio.csdn.net/63ab90a7d7076d6fb52a41dc.html?spm=1001.2101.3001.6650.2&utm_medium=distribute.pc_relevant.none-task-blog-2defaultCTRLISTactivity-2-86349643-blog-89874136.235^v27^pc_relevant_recovery_v2&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2defaultCTRLISTactivity-2-86349643-blog-89874136.235v27pc_relevant_recovery_v2&utm_relevant_index=5

你可能感兴趣的:(目标检测,机器学习,python)