Yolo系列:Yolo_v3

YOLOv3: An Incremental Improvement

一、改进点

1、Bounding Box Prediction

对于每个anchor box预测值为: 4 + 1 + C

4 表示anchor box的中心点坐标、框高及框长同Yolo_v2,训练损失使用平方误差损失计算。

Yolo系列:Yolo_v3_第1张图片

1 表示anchor box是否有物体的置信分数(objectness score),使用logistic函数计算。如果某一个anchor box与图像中某一目标IOU值最大,则该anchor boxe的 objectness score ground truth label = 1;与rpn网络不同,本文中每个目标仅匹配IOU值最大的anchor box,即每个ground truth box仅匹配一个anchor box,没有匹配任何ground truth box的 anchor box则 objectness score ground truth label = 0,并且仅贡献objectness score分类损失,无坐标回归损失和class prediction 分类损失。

C 表示class prediction。本文中不使用多分类的softmax损失计算,而是对每个类别计算单独的二分类交叉熵损失。

2、 Predictions Across Scales

类似FPN网络,文中引入多尺度特征融合的结构。具体地,使用三个不同大小Scale,在每个Scale的特征的grid cell上设定三个anchor box,对三个anchor box分别预测框位置及相应得分,最后将三个Scale上预测值拼接融合。

Yolo系列:Yolo_v3_第2张图片

3、基网络改进

基网络由Darknet-19改进为Darknet-53。网络更深,精度更高。

Yolo系列:Yolo_v3_第3张图片

Yolo系列:Yolo_v3_第4张图片

 

二、补充

1、作者尝试了Focal loss,但是MAP降了2%。

 

三、实验结果

Yolo系列:Yolo_v3_第5张图片

Yolo系列:Yolo_v3_第6张图片

Yolo系列:Yolo_v3_第7张图片

你可能感兴趣的:(目标检测)