【目标检测】anchor-base——fasterRCNN+YOLOv3总结

anchor-base 方法:

fasterRCNN:

image.png

1、two-stage,先训练 RPN,再训练 head 网络分支
2、feature map 分辨率低,M/2^5,对小目标检测效果有限
3、feature map 每个点都有anchor,anchor大小9种(3 scale * 3 ratio)

image.png

原图800x600,VGG下采样16倍,feature map每个点设置9个Anchor,所以50389=17100
4、正负样例(positive:IOU>0.7, negative:IOU<0.3)
5、NMS

YOLOv3

image.png

1、 one-stage
2、 沙漏形网络,分辨率升高
3、 Anchor 不同分辨率下不同 scale 的 anchor

image.png

image.png
对于一个输入图像,比如4164163,相应的会输出 13133 + 26263 + 52523 = 10647 个预测框
4、NMS

Anchor-free

1、 region proposal 是检测最重要的步骤,但是从生物学角度,人眼看到物体是同时定位+物体区域
2、 物体可以用关键点来代替(降维:二维----->一维)

你可能感兴趣的:(【目标检测】anchor-base——fasterRCNN+YOLOv3总结)