Faster RCNN之进化史

Faster RCNN之进化史

1.RCNN

1.1 算法流程

(1)在一张图像中通过SS算法生成1K~2K个候选区域
(2)对每一个候选区域通过深度网络提取特征
(3)特征送入每一类的SVM分类器,判断是否属于该类,之后通过nms为每一类候选框进行筛选。
(4)使用回归器精确修正候选框位置

1.2 网络模型

Faster RCNN之进化史_第1张图片

1.3 RCNN存在的问题

(1)测试速度慢:测试一张图片约53s(CPU)。用Selective Search算法提取候选框用时约2s,一张图像内候选框之间存在大量重叠,提取特征操作冗余。
(2)训练速度慢:过程及其繁琐
(3)训练所需空间大:对于SVM和bbox回归训练,需要从每个图像中的每个目标候选框提取特征,并写入磁盘。对于非常深的网络,如VGG16,从VOC07训练集上的5k图像上提取的特征需要数百GB的存储空间。

2.Fast RCNN

2.1 算法流程

(1)一张图像生成1K~2K个候选区域
(2)将图像输入网络得到相应的特征图,将SS算法生成的候选框投影到特征图上获得相应的特征矩阵
(3)将每个特征矩阵通过ROI pooling层缩放到7×7大小的特征图,接着讲特征图展平通过一系列全连接层得到预测结果

2.2 网络模型

Faster RCNN之进化史_第2张图片
RCNN依次将候选区域输入卷积网络得到特征,这样的话在产生的多个候选区域中存在着大量的冗余区域,因此导致了RCNN速度慢,而Fast RCNN则是将整张图片送入网络,紧接着从特征图上提取相应的候选区域,这些候选区域的特征将不会重复。
这里我要说几点 :
在Fast RCNN中得到候选区域的特征,我们并不会使用全部的候选区域特征送入后续的分类和回归分支,而是选取一部分数量相当的正负样本,而这里的正负样本是根据与Ground Truth的IOU来定义的,使用数量相当的正负样本是为了让模型做出公平的判断,不偏于任何一方。

分类器的输出是N+1个类别的其中N为检测目标的种类,1为背景类。

边界框回归器 输出对应N+1 个类别的候选边界框回归参数( d x , d y , d w , d h d_x,d_y,d_w,d_h dx,dy,dw,dh),共(N+1)×4个节点。
Faster RCNN之进化史_第3张图片
其中 P x , P y , P w , p h P_x,P_y,P_w,p_h Px,Py,Pw,ph分别是候选框的中心x,y坐标,以及宽高, G ^ x , G ^ y , G ^ w , G ^ h \hat G_x,\hat G_y,\hat G_w,\hat G_h G^x,G^y,G^w,G^h分别为最终预测的边界框中心x,y坐标,以及宽高。

2.3 损失函数

Faster RCNN之进化史_第4张图片
其中p是分类器预测的softmax概率分布 p = ( p 0 , . . . , p k ) p=(p_0,...,p_k) p=(p0,...,pk)
u对应目标真实类别标签
t u t^u tu对应边界框回归器预测的对应类别u的回归参数 ( t x u , t y u , t w u , t h u ) (t_x^u,t_y^u,t_w^u,t_h^u) (txu,tyu,twu,thu)
v对应真实目标的边界框回归参数 ( v x , v y , v w , v h ) (v_x,v_y,v_w,v_h) (vx,vy,vw,vh)
[u>=1]是艾弗森括号,指的是如果u>=1则为1,否则为0
其中分类损失为交叉熵损失:
Faster RCNN之进化史_第5张图片
回归损失:
Faster RCNN之进化史_第6张图片

3.Faster RCNN

3.1 算法流程

(1)将图像输入网络得到相应的特征图
(2)使用RPN结构生成候选框,将RPN生成的候选框投影到特征图上获得相应的特征矩阵
(3)将每个特征矩阵通过ROI pooling层缩放到7×7大小的特征图,接着将特征图展平通过一系列全连接层得到预测结果

3.2 网络模型

Faster RCNN之进化史_第7张图片
其中RPN结构如下所示:
Faster RCNN之进化史_第8张图片
对于一张1000×600×3的图像,大约有60×40×9(20k)个anchor,忽略跨越边界的anchor以后,剩下约6k个anchor。对于RPN生成的候选框之间存在大量重叠,基于候选框的cls得分,采用非极大值抑制,IOU设为0.7,这样每张图片只剩2k个候选框。

感受野计算公式:F(i)=(F(i+1)-1)×stride+Ksize

在产生的候选框中,我们并不是使用全部的候选框,而是选取一定数量的正负样本候选框,其比例尽量控制在1:1,如果正样本数量不够,可以通过负样本来补充。 而正样本的设置有两个条件:一是anchor与ground-truth有最大的交并比,而是与ground-truth的交并比超过0.7,可以看出第一个条件其实就是对第二个条件的补充,大多数情况下第二个条件就可以选出相应的正样本。 而负样本则是与ground-truth的交并比低于0.3。

4.损失函数

RPN损失:
Faster RCNN之进化史_第9张图片
其中 p i p_i pi表示第i个anchor预测为真实标签的概率
p i ∗ p_i^* pi当为正样本时为1,当为负样本时为0
t i t_i ti表示预测第i个anchor的边界框回归参数
t i ∗ t_i^* ti表示第i个anchor对应的GT Box
N c l s N_cls Ncls表示一个mini-batch中的所有样本数量256
N r e g N_reg Nreg表示anchor位置的个数(不是anchor个数)约为2400

分类损失有两种:
(1)Softmax Cross Entropy:

Faster RCNN之进化史_第10张图片
(2)Binary Cross Entropy:
Faster RCNN之进化史_第11张图片

你可能感兴趣的:(目标检测,深度学习,神经网络,pytorch)