学习笔记17-置信度C、类别概率P和召回R是啥?

Confidence置信度

置信度的概念是表示框出的box内确实有物体的自信程度和框出的box将整个物体的所有特征都包括进来的自信程度。
那么如何简单的去理解置信度呢?大家都知道yolo算法中的输出bounding box都包括(x,y,w,h,c),其中c就是这个框的置信度。看了很多文章都说c有两重含义,但是我理解就是它框柱了对象的自信程度值。
那么它有什么用呢?
首先我们自己会设定一个置信度c的值(0-1之间),这个值不能设太大,很好理解,如果设的过大,它的置信区间变大,精度变小,准确度变低,可以理解为要求的变松了。
其次当框输出的c>设定的c值时,结果为正,我们认定为这些box为正的框,
反之当框输出的c<设定的c值时,结果为负,我们认定为这些box为负的框。
ground truth data可以理解为我们标注的数据样本,将预测为正的与ground truth data计算IOU,再将这个计算得到的IoU与IoU阈值比较,就能得到正阳性TP,和假阳性FP(TP指的是预测为正实际也为正,FP指的是预测为正实际不为正)

Precision类别频率

在这里插入图片描述
Precision就是看预测为正的里面有多少是真的正的

Recall召回

在这里插入图片描述
Recall就是看预测为正的占据所有正的比例
总结: P和R均与C和IOU有关。

AP和mAP定义

AP(Average Precision)就是这个类别的precision/recall曲线下的积分面积。注意是这个类别的,因为不同类别和不同模型,其confidence的影响不同,因此研究都是对于一个给定的任务和(某个)类别而言。
简单理解AP就是我们选择11个置信度c的阈值,使得Recall达到0,0.1,,,1,其对应的P的平均值就是AP。mAP指的就是不同类AP的平均值。
总结:
1.对于目标检测来说,很难找到一个绝对量化的标准来衡量模型的输出,但mAP是一个很好的相对度量。它可以帮助我们度量一个数据集上的两个检测算法的结果。
2.AP是依赖于训练数据的分布的(对于每个类),也就是说不同类的结果可能差别很大(可能mAP的结果差不多,但不同类的AP差别很多)。所以,对于模型结果而言,我们可以输出每个类别的AP(这也是一个可取的方法帮助我们分析模型的结果,我们可以以此为依据添加样本)。

你可能感兴趣的:(学习笔记,python,深度学习)