FAST-RCNN

  RBG的RCNN使用region proposal(具体用的是Selective Search Koen van de Sande: Segmentation as Selective Search for Object Recognition)来得到有可能得到是object的若干(大概10^3量级)图像局部区域,然后把这些区域分别输入到CNN中,得到区域的feature,再在feature上加上分类器,判断feature对应的区域是属于具体某类object还是背景。当然,RBG还用了区域对应的feature做了针对boundingbox的回归,用来修正预测的boundingbox的位置。RCNN在VOC2007上的mAP是58%左右。
RCNN存在的问题:1、一张图像上有大量的重叠框,所以这些候选框送入神经网络时候,提取特征会有冗余! 2、训练的空间需求大。因为RCNN中,独立的分类器和回归器需要很多的特征作为训练。RCNN中提取候选框,提取特征和分类回归是分开的,可独立。
FAST-RCNN步骤
1、使用SS算法,在图像上生成2k个候选区域
2、将整张图片传入CNN,提取整张图片的特征
3、利用ROIPooling,在整张图片特征上扣取候选区域的特征(不同大小的候选区特征大小相同)
4、利用扣取的特征,对每个候选区域进行分类和候选框的回归精修

SPP的作用:不管输入的尺寸大小,输出都是固定的。

FAST-RCNN_第1张图片
我们从上面网络结构图可以看出:最右边的不管输入是什么尺寸,每个特征图只输出一个值;中间的是不管输入什么尺寸,将特征图分为2*2个矩阵,每个矩阵取出一个值,一共有4个值;同理,最左边输出有16个值。所以不管输入特征图的大小,每一个特征图经过SPP以后都会产生21维的特征向量。

ROI pooling layer具体操作
  1. 根据输入image,将ROI映射到feature map对应位置
  2. 将映射后的区域划分为相同大小的sections(sections数量与输出的维度相同)
  3. 对每个sections进行max pooling操作
    这样我们就可以从不同大小的方框得到固定大小的feature maps
    FAST-RCNN_第2张图片

摘要

  本文为目标检测提出了一种基于快速区域的卷积网络方法(FAST R-CNN)。FAST R-CNN建立在以前工作的基础上,利用深度卷积网络对目标进行有效分类。与以往的工作相比,FAST R-CNN在提高训练和测试速度的同时,也提高了检测精度。Fast R-CNN训练非常深的VGG16网络比R-CNN快9倍,测试时快213倍,并在Pascal voc 2012上取得了更好的效果。与sppnet相比,Fast R-CNN训练速度为VGG16 的3倍快,测试速度为10倍快,且精度更高。FAST R-CNN是在python和c++(使用caffe)中实现的,并且可以在开放源代码的MIT许可下获得:https: //github.com/rbgirshick/fast-rcnn.

一、引言

  最近,深度卷积网络[14,16]大大提高了图像分类[14]和目标检测[9,19]的准确性。与图像分类相比,目标检测是一项更具有挑战性的任务,需要更复杂的方法来解决。由于这一复杂性,目前的方法(例如,[9,11,19,25]在多级流程中训练模型速度缓慢,且效果不佳。
  复杂性的提高是因为检测需要精确地定位对象,这就产生了两个主要的挑战。首先,必须处理许多候选对象位置(通常称为“建议框”)。第二,这些候选框只提供粗略的位置,必须加以改进才能实现精确的定位。这些问题的解决方案往往会影响速度、准确性或简单性。
  在本文中,我们简化了基于ConvNet的目标检测器的训练过程[9,11].我们提出了一种单级训练算法,它联合学习对目标方案进行分类并细化它们的空间位置。
  此方法可以训练出一个非常深的检测网络,比VGG16快9倍,比SPPnet[11]快3倍。在运行时,检测网络在0.3s内处理图像(不包括对象提议时间),同时在Pascal voc 2012[7]上达到最高精度,为66%(R-CNN为62%)。

1.1 RCNN和SPP-Net

  基于区域的卷积网络方法(RCNN)[9]利用深度ConvNet对目标建议框进行分类,获得了很好的目标检测精度。然而,R-CNN有明显的缺点:
1.训练是一个多阶段的过程。 R-CNN第一次使用对数损失函数完成了关于目标建议框的ConvNet。然后,它使用svms拟合ConvNet特性。这些svms充当对象检测器,取代通过微调学习的Softmax分类器。在第三个训练阶段,边框才被学习到。
2.训练在空间和时间上都是昂贵的。 对于svm和bounding-box回归的训练,从每个图像中的每个对象建议框中提取特征并写入磁盘。对于非常深的网络(如VGG16),这个过程需要GPU用2.5天的时间来处理VOC07的trainval集的5k图像。这些特性需要数百GB的存储空间。
3.目标检测速度慢。 在测试时,从每个测试图像中的每个对象建议框中提取特征.使用VGG16进行检测每张图片需要47s(在GPU上)。
  R-CNN速度慢,因为它对每个对象建议框执行一个ConvNet前向传递,而不需要共享计算。空间金字塔池化网络(Sppnet)[11]被提出通过共享计算来加速R-CNN。sppnet方法计算整个输入图像的卷积特征映射,然后使用从共享特征映射中提取的特征向量对每个对象建议框进行分类。通过最大限度地将建议框内的特征映射部分合并成固定大小的输出(例如,6×6),为建议框提取特征。多个输出大小被池化,然后像在空间金字塔池[15]中那样连接。在测试时间,sppnet将R-CNN加速10至100倍。由于建议框特征提取速度更快,训练时间也减少了3倍。
  sppnet也有明显的缺点。像R-CNN一样,训练是一个多阶段的过程,包括提取特征,用log损失函数对网络进行微调,训练svm,并最终拟合bounding-box回归器。特性也被写入磁盘。但与R-CNN不同,微调算法不能更新空间金字塔池之前的卷积层。毫不奇怪,这种限制(固定的卷积层)限制了非常深的网络的精度。

1.2. Contributions

  我们提出了一种新的训练算法,在提高训练速度和精度的同时,弥补了R-CNN和sppnet的缺点。我们称这种方法为“Fast R-CNN”,因为它的训练和测试相对较快。Fast R-CNN方法有几个优点:
1.检测质量(MAP)高于R-CNN,sppnet
2.训练是单一阶段,使用多任务损失
3.训练可以更新所有网络层
4。功能缓存不需要磁盘存储。
FAST r-cnn是用python和c++(caffe[13])编写的,在开放源码的MIT许可下可以在 https://github.com/rbgirshick/ fast-rcnn.

二、Fast-RCNN的架构和训练

FAST-RCNN_第3张图片
图1.快速r-CNN架构。一个输入图像和多个感兴趣区域(ROIS)被输入到全卷积网络中。每个ROI集合成一个固定大小的特征映射,然后通过完全连接层(FCS)映射到一个特征向量。该网络每个ROI有两个输出向量:Softmax概率和每类bounding-box回归偏移量。该体系结构是经过训练的端到端的多任务损失。
  Fig.1说明了Fast R-CNN的体系结构。一个快速的R-CNN网络接受一个完整的图像和一组对象建议框作为输入。该网络首先用多个卷积(Conv)和最大池化层处理整个图像,生成一个Conv特征映射。然后,对于每个对象建议框,感兴趣区域(ROI)池化层从特征映射中提取固定长度的特征向量。每个特征向量被输入到一个完全连接(FC)层的序列中,这些层最终被划分为两个兄弟级输出层:一个在k个对象类上生成Softmax概率估计,另一个层为每个k个对象类输出四个实值数字。每组4个值编码一个k类的bounding-box位置。

2.1 ROI池化层

  ROI池层使用最大池化将感兴趣的任何有效区域内的特征转换为具有固定空间范围 h×w(例如,7×7)的小特征映射,其中h和w是与任何特定ROI无关的层超参数。在本文中,ROI是进入Conv特征映射的矩形窗口。每个ROI由一个四元组(r,c,h,w)定义,该元组指定其左上角(r,c)及其高度和宽度(h,w)。
  ROI最大池化层的工作原理是将h×w 的ROI窗口划分为近似大小为h/H×w/W的子窗口的H×W的网格,然后将每个子窗口pooling输出的值合并到相应的输出网格单元中。池化独立地应用于每个特征映射通道,如标准的最大池化。ROI层只是sppnet[11]中使用的空间金字塔池层的特例,其中只有一个金字塔级别。我们使用[11]中给出的池子窗口计算。

2.2、从预先训练的网络初始化

  我们用三个预先训练过的ImageNet[4]网络进行实验,每个网络都有5个最大池化层和5-13个Conv层(详见4.1节)。当预先训练的网络初始化一个快速的R-CNN网络时,它会经历三个转换.。
  首先,将最后一个最大池化层替换为ROI池化层,通过设置H和W与网络的第一个全连接层兼容(例如,H=W=7表示VGG16)
  其次,网络的最后一个全连接层和Softmax(为1000路ImageNet分类训练)被替换为前面描述的两个兄弟层(一个全连接层后接k+1类别的Softmax和一个全连接层后接特定类别的bounding-box回归器)。

2.3、检测微调

  利用反向传播训练所有网络权值是快速R-CNN的一项重要能力。首先,让我们阐明为什么SPPnet无法更新空间金字塔池层以下的权重。
  其根本原因是当每个训练样本(即ROI)来自不同的图像时,通过SPP层的反向传播效率很低,这正是R-CNN和SPPnet网络被训练的方式。低效率源于这样一个事实:每个ROI可能有一个非常大的感受域,通常跨越整个输入图像。由于前向传播必须处理整个感受域,训练输入量很大(通常是整个图像)。
  我们提出了一种在训练过程中利用特征共享的高效训练方法。在FAST R-CNN训练中,随机梯度下降(SGD)分层采样mini-batch,首先对N个图像进行采样,然后从每幅图像中采样R/N个ROI。关键的是,来自同一图像的ROIS在向前和向后传播中共享计算和内存。减小N可以减少了mini-batch计算量。例如,当使用N=2和R=128时,所提出的训练方案比从128幅不同图像(即R-CNN和sppnet策略)中采样一次ROI快约64倍。
  这种策略的一个关注点是,它可能会导致训练收敛速度缓慢,因为来自同一图像的ROI是相关的。这似乎不是一个实际的问题,我们取得了较好的结果,N=2和R=128比R-CNN使用更少的SGD迭代。
  除了分层抽样之外,FAST R-CNN还使用了一个简化的训练过程,通过一个微调阶段联合优化Softmax分类器和bounding-box回归器,而不是将Softmax分类器、svms和回归器训练在三个不同的阶段[9,11]。此过程的组成部分(loss、mini-batch抽样策略、通过ROI池化层的反向传播和SGD超参数)如下所述。
  多任务损失:一个Fast R-CNN网络有两个兄弟输出层。第一个输出k+1个类别的离散概率分布(每ROI), p = ( p 0 , . . . , p K ) p=(p_0,...,p_K) p=(p0,...,pK)。和往常一样,p是由全连接层的k+1个输出接Softmax计算的。第二个兄弟层输出bounding-box回归偏移量, t k = ( t x k , t y k , t w k , t h k ) t^k=(t^k_x,t^k_y,t^k_w,t^k_h) tk=(txk,tyk,twk,thk)。对于每个K对象类,按k索引。我们使用了[9]中给出的 t k t^k tk参数化,其中指定了相对于对象方案的尺度不变平移和对数空间高度/宽度移动。
  每个训练ROI都被标记为一个ground-truth类u和一个ground-truth bounding-box回归目标v。我们使用多任务损失函数L对每个标记的roi进行分类和bounding-box回归的联合训练:
L ( p , u , t u , v ) = L c l s ( p , u ) + λ [ u ≥ 1 ] L l o c ( t u , v ) L(p,u,t^u,v)=L_{cls}(p,u)+λ[u≥1]L_{loc}(t^u,v) L(p,u,tu,v)=Lcls(p,u)+λ[u1]Lloc(tu,v)
其中 L c l s ( p , u ) = − l o g p u L_{cls}(p,u)=-logp_u Lcls(p,u)=logpu是u的log损失。

  第二个任务损失定义在类u和 v = ( v x , v y , v w , v h ) v=(v_x,v_y,v_w,v_h) v=(vx,vy,vw,vh)的真实bounding-box回归目标元组上。当u≥1,[u≥1]值为1,否则为0。按照惯例,捕获所有背景类标记为u=0。对于背景ROI,不存在ground-truth bounding-box的概念,因此 L l o c L_{loc} Lloc被忽略。对于bounding-box回归,我们使用损失:
L l o c ( t u , v ) = ∑ i ∈ { x , y , w , h } s m o o t h L 1 ( t i u − v i ) L_{loc}(t^u,v)=∑_{i∈\{x,y,w,h\}}smooth_{L_1}(t^u_i-v_i) Lloc(tu,v)=i{x,y,w,h}smoothL1(tiuvi)
s m o o t h L 1 ( x ) = { 0.5 x 2 i f ∣ x ∣ < 1 ∣ x ∣ − 0.5 o t h e r w i s e smooth_{L_1}(x)=\left\{ \begin{aligned} 0.5x^2 &&if|x|<1\\ |x|-0.5&&otherwise \end{aligned} \right. smoothL1(x)={0.5x2x0.5ifx<1otherwise
是一种鲁棒的L1损失,与r-cnn和sppnet中使用的L2损失相比,它对异常值更不敏感(因为L2是平方)。当回归目标是无界的,L2损失的训练可能需要仔细调整学习率,以防止梯度暴涨。Eq3消除了这种敏感性 。
  方程中的超参数λ控制两项任务loss之间的平衡。我们将ground-truth回归目标 v i v_i vi归一化为零均值和单位方差.所有实验都使用λ=1。
  我们注意到,[6]使用相关的loss来训练一个与类无关的对象提取网络。与我们的AP-proach不同,[6]主张采用两种网络系统,即SEPA分别进行定位和分类。Overfeat[19]、r-cnn[9]和sppnet[11]也训练分类器和 bounding-box定位器,但是这些方法都是分阶段训练的,我们发现对于快速r-cnn来说,这些方法是次优的(5.1节)。
  mini-batch抽样 :在微调过程中,每个SGDmini-batch由N=2幅图像组成,随机一致地选择(通常的做法是,我们实际上迭代了数据集的排列)。我们使用R=128的mini-batch,从每幅图像中抽取64个ROIs.与[9]一样,我们从目标建议框与真实边界框的重叠交并比(IOU)大于等于0.5的ROI中获取25%的ROI。这些ROI包括标记为前景对象类(即u≥1)的示例。其余的ROI是从目标建议框中取样的,IOU在[0.1,0.5)间。这些是背景示例,标记为u=0。较低的阈值0.1似乎作为一个启发式的难例子挖掘[8]。在训练期间,图像水平翻转的概率为0.5。不使用其他数据增强。
  **通过roi池化层的反向传播:**反向传播将衍生物通过ROI池化层传播。为了清晰起见,我们假mini-batch只有一个图像(N=1),但是对N>1的扩展很简单,因为向前传递处理所有图像都是独立的。
  设 x i ∈ R x_i∈R xiR是ROI池化层的第i个激活输入,而 y r j y_{rj} yrj是该层第r个ROI的第j个输出。ROI池化层计算 y r j = x i ∗ ( r , j ) y_{rj}=x_{i*(r,j)} yrj=xi(r,j),其中 i ∗ ( r , j ) = a r g m a x i ′ ∈ R ( r , j ) x i ′ i∗(r,j)=argmax_{i^{'}∈R(r,j)}x_{i^{'}} i(r,j)=argmaxiR(r,j)xi R ( r , j ) R(r,j) R(r,j)是输出单元 y r j y_{rj} yrj的最大池化所经过的子窗口中输入的索引集。可以将单个 x i x_i xi分配给几个不同的输出 y r j y_{rj} yrj
  ROI池化层的后向函数计算损失函数相对于每个输入变量xi的偏导数,方法是按照argmax转换: ∂ L ∂ x i = ∑ r ∑ j [ i = i ∗ ( r , j ) ] ∂ L ∂ y r j {∂L\over ∂x_i}=∑_r∑_j[i=i^*(r,j)]{∂L\over∂y_{rj}} xiL=rj[i=i(r,j)]yrjL
  就是说,对于每个mini-batch ROI r和每个池输出单元 y r j y_{rj} yrj,如果i是通过最大池化为选择的argmax,则会累积偏导数 ∂ L ∂ y r i {∂L\over ∂y_{ri}} yriL。在反向传播中,偏导数 ∂ L ∂ y r i {∂L\over ∂y_{ri}} yriL已经由ROI池化层上的层的反向函数来计算。
  **SGD超参数 :**利用标准差分别为0.01和0.001的零均值高斯分布,对用于softmax(软最大值分类)和bounding-box回归的全连接层进行了初始化。偏差被初始化为0。所有层都使用1的每层学习速率作为权重,2用于偏置,全局学习速率为0.001。在VOC07或VOC12的训练中,我们运行SGD进行30k的小批量迭代,然后将学习率降低到0.0001,再训练10K的迭代。当我们对较大的数据集进行训练时,我们运行SGD进行更多的迭代,如后面所述。动量为0.9,参数衰减为0.0005(关于权重和偏置)。

2.4.尺度不变性

  我们探讨了两种实现尺度不变目标检测的方法:(1)通过“brute force”学习和(2)利用图像金字塔。这些战略遵循[11]中的两种方法。在“brute force”法中,在训练和测试过程中,每幅图像都以预先定义的像素大小进行处理。网络必须从训练数据中直接学习尺度不变的目标检测。
  相比之下,多尺度方法通过图像金字塔为网络提供了近似的尺度不变性.在测试时,图像金字塔被用来对每一个目标方案进行近似规模的规范化。在多尺度训练中,我们随机抽样一个金字塔尺度,每次一幅图像被采样,如下[11],作为数据增强的一种形式。由于GPU内存的限制,我们只对较小的网络进行多尺度训练。

三、Fast R-CNN的检验

  一旦fast r-cnn网络被微调,检测就相当于向前传播(假设目标建议框是预先计算的)。该网络以图像(或图像金字塔,编码为图像列表)和R对象建议框列表来得分作为输入。在测试时,R通常在2000左右,尽管我们将考虑它更大的情况(≈45k)。当使用图像金字塔时,每个ROI被分配到缩放,使得缩放后的ROI在区域[11]中最接近224x224像素。
  对于每个测试的ROI,R正向传递输出一个类后验概率分布p和一组相对于R的预测bounding-box偏移量(每个k类都有自己的精化bounding-box预测)。我们使用估计的概率为每个对象类k指定一个检测置信度为r。然后,我们使用r-cnn[9]中的算法和设置,独立地对每个类执行非极大抑制。

3.1.截断SVD以提高检测速度

  对于全图像分类,计算全连接层的时间比Conv层少。相反,为了检测要处理的ROI数目很大,并且几乎一半的前向通过时间用于计算全连接层(参见图)。使用截断的SVD[5,23]压缩大的全连接的层很容易加速。
  在这种技术中,含有权重为u×v的矩阵w参数的层被近似SVD分解为 :
W ≈ U ∑ t V T W≈U∑_tV^T WUtVT
   在这个因式分解中,u是一个u×t矩阵,它包含w的前t个左奇异向量, ∑ t ∑_t t是包含w的t个奇异值的t×t对角矩阵,v是包含w的前t个右奇异向量的v×t矩阵。截断的SvD将参数从UV减少到t(u+v),如果t比min(u,v)小得多,这是非常显著的。为了压缩网络,将对应于w的单个全连接层替换为两个全连接层,它们之间没有非线性。这些层中的第一层使用权重矩阵 ∑ t V T ∑_tV^T tVT(无偏差),第二层使用u(具有与w相关的原始偏差)。这种简单的压缩方法提供了良好的加速比,当ROIs的数目很大时。

四、主要结论

本文的三个主要贡献:
1、VOC07,2010和2012上最先进的mAP
2、与r-cnn,sppnet 相比,快速训练和测试。
3、微调vgg16中的conv层改进map

4.1.实验装置

  我们的实验使用了三个预先训练过的ImageNet模型,它们都可以在线上使用。第一个是来自r-cnn[9]的caffenet(本质上是alexnet[14])。我们也可以将此caffenet称为模型s,表示“小”。第二个网络是[3]的vgg CNN m 1024,其深度与s相同,但更宽。我们把这个网络模型叫做m,意思是“中等”。最后的网络是[20]中非常深的vgg16模型。因为这个模型是最大的,所以我们称它为模型L。在本节中,所有的实验都使用单尺度的训练和测试(s=600;详见5.2节)。
FAST-RCNN_第4张图片

4.2.2010年和2012年成果

  这些数据集上,我们比较了FAST r-CNN(简称FRCN)与Comp 4(外部数据)轨道上来自公共排行榜的顶级方法(表2,表3)。对于NUS nin C 2000和婴儿学习方法,目前还没有相关的出版物,我们无法找到使用的ConvNet体系结构的确切信息;它们是网络中网络设计的变体[17]。所有其他方法都是从同一个预先训练的vgg16网络中初始化的。
  FAST r-CNN以65.7%的特征(和68.4%的额外数据)获得了VOC12的最高结果。这也是两个数量级的速度比其他方法,这都是基于“慢”的r-cnn流程。在VOC10上,SegDeepM[25]实现了一个更高的mAP比快速的r-cnn(67.2%比66.1%)。SegDeepM是关于VOC12加分割注释的训练;它的设计是为了提高r-cnn的准确性,使用马尔可夫随机场对r-cnn检测和从O2P[1]语义分割方法中的分段进行推理。快速r-cnn可以用SegDeepM代替r-cnn,这样可以得到更好的效果。当使用扩大的07 12训练集(见表2标题)时,快速r-cnn的地图增加到68.8%,超过了SegDeepM。

4.3. VOC 2007 结果

  在VOC2007,我们比较了快速的r-cnn,r-cnn和sppnet.所有方法都从相同的预先训练的vgg16网络开始,并使用bounding-box回归。vgg16sppnet结果由[11]作者计算。sppnet在训练和测试中使用五种量表。快速r-cnn在sppnet上的改进说明,尽管FAST r-cnn使用单尺度的训练和测试,但对conv层的微调使MAP得到了很大的改进(从63.1%提高到66.9%)。R-CNN实现了66.0%的map。作为一个小问题,sppnet在Pascal没有被标记为“困难”的例子进行了训练。删除这些例子提高了快速r-cnn map到68.1%.所有其他实验都使用“困难”的例子。

4.4.训练和测试时间

  快速的训练和测试时间是我们的第二大成果。表4比较了快速rcnn、r-cnn和sppnet之间的训练时间(小时)、测试速率(每张图像秒数),以及voE 07上的地图。对于vg 16,快速r-cnn处理图像的速度比没有截断SvD的r-cnn快146×,用它处理图像的速度为213×。训练时间从84小时减少到9.5小时,缩短了9×10。与sppnet相比,快速rcnn列车vg 16 2.7×捷(9.5比25.5小时),测试速度7×快而不截断SvD或10×快。快速r-cnn也消除了数百GB的磁盘存储,因为它没有缓存功能。
FAST-RCNN_第5张图片

表4.快速rcnn、r-cnn和sppnet中相同模型的运行时比较。快速r-cnn采用单尺度模式。sppnet使用[11]中规定的五个比例。†时间由[11]的作者提供。在NVIDIA K40 GPU上测量时间。
  **截段的SvD:**截断的SvD可以减少30%以上的检测时间,只需在特征图上下降一点点(0.3个百分点),并且无需在模型压缩后执行额外的微调。Fig2说明利用vgg16层fc6层中25088×4096矩阵的前1024个奇异值和4096×4096fc7层的前256个奇异值如何在不损失MAP的情况下减少运行时。如果压缩后再进行一次细调的话,map上会有更小的下降,从而可以进一步加快速度.。
FAST-RCNN_第6张图片

图2.在截断SvD之前和之后进行vgg16的计时。在SvD之前,全连接层fc6和fc7占45%的时间。

4.5.哪一层要细调?

  对于sppnet论文[11]中考虑的深度较小的网络,仅对全连接层进行微调似乎就足以获得很好的精度。我们假设这一结果不会适用于非常深的网络。为了验证微调conv层对于vgg16很重要,我们使用快速r-cnn来微调,但是冻结13个conv层,以便只有全连接层才能学习。此消融模拟单尺度sppnet训练,将MAP从66.9%降至61.4%(表5)。本实验验证了我们的假设:通过ROI池化层进行训练对于非常深的网非常重要。
  这是否意味着所有的conv层都应该进行微调?总之,没有。在较小的网络(s和m)中,我们发现conv1是泛型的和任务无关的(众所周知的事实[14])。是否允许conv1学习,对map没有任何意义。对于vgg16,我们发现只需要从conv3_1和以上更新层(13个conv层中的9个)。这是一种实用的观察方法:(1)用conv2_1进行更新,使训练速度比从conv3_1学习慢1.3倍(12.5比9.5小时);(2)从conv1溢出GPU内存中进行更新。从conv2_1向上学习时,map的差异仅为0.3点(表5,最后一栏)。所有快速r-cnn的结果在本文中使用vgg16微调层conv3_1及以上;所有的实验模型s和m微调层conv2以上。

5.设计评价

  我们进行了实验,以了解rcnn与r-cnn和sppnet相比有多快,以及评估设计决策。按照最佳实践,我们在Pascal语音07数据集上进行了这些实验。

5.1.多任务训练有用吗?

  多任务训练是很方便的,因为它避免了管理一系列经过连续训练的任务。但是它也有改善结果的潜力,因为任务通过共享表示(ConvNet)相互影响[2]。多任务训练能提高快速r-cnn的目标检测精度吗?
  为了测试这个问题,我们在eq中训练只使用分类损失LCLS的基线网络。1(即设置λ=0)。这些基线是在表6每组的第一栏中为模型s、m和l打印的。请注意,这些模型没有bounding-box回归器。接下来(每组第二列),我们采用多任务损失(Eq)训练的网络。1,λ=1),但我们在测试时禁用了bounding-box回归。这隔离了网络的分类精度,并允许将苹果与基线网络进行比较。
  在这三个网络中,我们观察到多任务训练相对于单纯的分类训练提高了纯分类的准确性。改进范围为0.8~1.1个地图点,多任务学习显示出一致的积极效果。
  最后,我们采用基线模型(只对分类损失进行训练),在bounding-box回归层上定位,并使用对其进行训练,同时保持所有其他网络参数的冻结。每组中的第三列显示了这种分阶段训练方案的结果:MAP比第一列有所改进,但分阶段训练的效果不如多任务训练(每组第四列)。

5.2.尺度不变性:蛮力还是技巧?

  我们比较了两种实现尺度不变目标检测的策略:蛮力学习(单尺度)和图像金字塔(多尺度).在任何一种情况下,我们定义图像的尺度s为其最短边的长度。
  对于某些图像,所有使用s=600像素的单尺度实验都可能小于600,因为我们将最长的图像侧限制在1000个像素,并保持图像的高宽比。选择这些值是为了使vgg16在微调期间适合GPU内存。较小的模型不受内存约束,可以从更大的s值中受益;但是,为每个模型优化s不是我们主要关心的问题。我们注意到PASCAL图像平均为384×473像素,因此单尺度设置通常会将图像提升1.6倍。因此,ROI池化层的平均有效步长为≈10像素。
  在多尺度设置中,[11]我们使用(s∈{480,576,688,864,1200})中指定的五个标度,以便于与sppnet进行比较。然而,我们限制最长的一面在2000像素,以避免超过GPU内存。
FAST-RCNN_第7张图片
FAST-RCNN_第8张图片
  表7显示了用一种或五种尺度训练和测试的模型s和m。也许在[11]中最令人惊讶的结果是单尺度检测的性能几乎和多尺度检测一样好。我们的发现证实了他们的结果:深度网络擅长直接学习尺度不变性。多尺度方法在计算时间上只提供了少量的地图增长,但成本却很高(表7)。在vgg16(模型l)的情况下,我们仅限于通过实现细节使用单个比例。然而,它实现了66.9%的map,略高于为r-cnn[10]报道的66.0%,尽管r-cnn使用“无限”尺度,即每个提案都被扭曲成标准大小。
  由于单尺度处理提供了速度和精度之间的最佳折衷,特别是对于非常深的模型,在这个分区之外的所有实验都使用单尺度的训练和测试,s=600像素。

5.3.我们需要更多的训练数据吗?

  当提供更多的训练数据时,一个好的目标检测器应该得到改进。朱等人[24]发现DPM[8]地图仅在几百到1000个训练示例之后就饱和了。在这里,我们用VOC12斜交集增加了VOC07的斜交集,大致将图像的数量增加到16.5k,以评估快速的r-cnn。训练集的扩大提高了VOC07测试的MAP,从66.9%提高到70.0%(表1)。在此数据集上进行训练时,我们使用60k的小批处理迭代,而不是40k。
  我们对VOC10和2012进行了类似的实验,我们为其构建了一个21.5k图像的数据集,该数据集来自VOC07trainval、test和voc12trainval。在此数据集上进行训练时,我们使用100 k SGD迭代,将学习速度降低0.1×每40k迭代(而不是每30k)。10和2012年,MAP分别从66.1%提高到68.8%,从65.7%提高到68.4%。

5.4.svms的表现优于Softmax吗?

  快速r-cnn使用在微调过程中学习到的Softmax分类器,而不是像在r-cnn和sppnet中所做的那样训练1-VS-REST线性svms。为了了解这一选择的影响,我们在快速r-cnn中实施了带有硬负挖掘的特设svm训练。我们使用与r-cnn相同的训练算法和超参数。
FAST-RCNN_第9张图片
表8显示,在所有三个网络中,Softmax略优于svm,比svm高0.1至0.8个百分点。这一效果很小,但它表明,“一次”微调比以往的多阶段训练方法是足够的。我们注意到,与1-VS-REST svms不同的是,Softmax在得分ROI时引入了类间的竞争。

5.5.更多的建议总是更好吗?

  有(广义)两种类型的对象检测器:使用稀疏的对象建议集(例如选择性搜索[21])和使用密集的检测器(例如DPM[8])。分类稀疏提案是一种级联式[22],在这种类型中,提案机制首先拒绝了大量的候选方案,使分类器有一小部分待评估的集合。当应用于DPM检测时,这种级联提高了检测精度[21]。我们发现,提出的分类器级联也提高了快速的r-CNN的准确性。
  采用选择性搜索的质量模式,对每幅图像从1k到10k的方案进行扫描,每次对模型m进行再训练和再测试。如果提案是一个纯粹的计算角色,增加每个图像的建议数量不应该损害mAp。
  我们发现,随着建议数的增加,map会上升,然后略有下降(图)。3、实心蓝线)。这个实验表明,用更多的建议淹没深层分类器并没有帮助,甚至轻微地降低了准确性。
FAST-RCNN_第10张图片
  如果没有实际的实验,这个结果是很难预测的。测量对象提案质量的最新技术是平均召回(Ar)[12]。当每幅图像使用固定数目的建议时,AR与map有很好的相关性,使用r-cnn的几种建议方法。Fig3表明AR(实心红线)与map的相关性不是很好,因为每幅图像的建议数是不同的。必须谨慎使用AR;更多提案所导致的更高的AR并不意味着MAP将增加。幸运的是,使用m模型进行训练和测试所需时间不到2.5个小时。因此,快速r-cnn能够有效、直接地评估对象提案图,这比代理度量更可取。
  我们还研究了快速r-cnn时,使用密集产生的盒子(超过规模,位置,和纵横比),在大约45K盒/图像。这个密集足够丰富,当每个选择性搜索框被其最近的(IOU)密集框所取代时,MAP只下降1个点(到57.7%,图)。3,蓝色三角形)。
  密集框的统计量与选择性搜索框的统计值不同。从2k选择性搜索盒开始,加入1000×{2,4,6,8,10,32,45}密集盒的随机样本,对map进行测试。对于每个实验,我们重新训练和再测试模型m。当添加这些密集框时,MAP下降的幅度比添加更多选择性搜索框时更大,最终达到53.0%。
  我们还训练和测试快速r-cnn只使用密集盒(45K/图像)。此设置产生的map为52.9%(蓝色钻石)。最后,我们检查是否需要硬负挖掘的svms来处理密集盒分布。svms做得更糟:49.3%(蓝色圆圈)。

5.6.初步的Ms coco结果

  我们将快速r-cnn(Vg 16)应用于Ms coco数据集[18],以建立一个初步的基线。我们在80k图像训练集上训练240 k迭代,并使用评估服务器在“test-dev”集上进行评估。帕斯卡式地图为35.9%;新的coco式AP(平均超过IOU阈值)为19.7%。

六、结论

  本文提出了一种对R-CNN和sppnet进行快速更新的方法.除了报告最新的检测结果外,我们还提供了详细的实验,希望能提供新的见解。特别值得注意的是,稀疏的目标建议似乎提高了检测器的质量。在过去,这个问题花费太大(时间太长),但随着r-cnn的快速增长,这个问题变得实际起来。当然,可能还存在一些尚未被发现的技术,这些技术允许密集的盒子执行以及稀疏的建议。这些方法,如果得到发展,可能有助于进一步加快目标检测。

致谢。我感谢凯明,他,拉里齐尼克,和皮奥特美元提供了有益的讨论和鼓励。

References [1] J. Carreira, R. Caseiro, J. Batista, and C. Sminchisescu. Semantic segmentation with second-order pooling. In ECCV, 2012. 5 [2] R. Caruana. Multitask learning. Machine learning, 28(1), 1997. 6 [3] K. Chatfield, K. Simonyan, A. Vedaldi, and A. Zisserman. Return of the devil in the details: Delving deep into convolutional nets. In BMVC, 2014. 5 [4] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li, and L. FeiFei. ImageNet: A large-scale hierarchical image database. In CVPR, 2009. 2 [5] E. Denton, W. Zaremba, J. Bruna, Y. LeCun, and R. Fergus. Exploiting linear structure within convolutional networks for efficient evaluation. In NIPS, 2014. 4 [6] D. Erhan, C. Szegedy, A. Toshev, and D. Anguelov. Scalable object detection using deep neural networks. In CVPR, 2014. 3 [7] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes (VOC) Challenge. IJCV, 2010. 1 [8] P. Felzenszwalb, R. Girshick, D. McAllester, and D. Ramanan. Object detection with discriminatively trained part based models. TPAMI, 2010. 3, 7, 8 [9] R. Girshick, J. Donahue, T. Darrell, and J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. In CVPR, 2014. 1, 3, 4, 8 [10] R. Girshick, J. Donahue, T. Darrell, and J. Malik. Regionbased convolutional networks for accurate object detection and segmentation. TPAMI, 2015. 5, 7, 8 [11] K. He, X. Zhang, S. Ren, and J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. In ECCV, 2014. 1, 2, 3, 4, 5, 6, 7 [12] J. H. Hosang, R. Benenson, P. Dollar, and B. Schiele. What ´ makes for effective detection proposals? arXiv preprint arXiv:1502.05082, 2015. 8 [13] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proc. of the ACM International Conf. on Multimedia, 2014. 2 [14] A. Krizhevsky, I. Sutskever, and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012. 1, 4, 6 [15] S. Lazebnik, C. Schmid, and J. Ponce. Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories. In CVPR, 2006. 1 [16] Y. LeCun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard, and L. Jackel. Backpropagation applied to handwritten zip code recognition. Neural Comp., 1989. 1 [17] M. Lin, Q. Chen, and S. Yan. Network in network. In ICLR, 2014. 5 [18] T. Lin, M. Maire, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, P. Dollar, and C. L. Zit- ´ nick. Microsoft COCO: common objects in context. arXiv e-prints, arXiv:1405.0312 [cs.CV], 2014. 8

[19] P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun. OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks. In ICLR, 2014. 1, 3 [20] K. Simonyan and A. Zisserman. Very deep convolutional networks for large-scale image recognition. In ICLR, 2015. 1, 5 [21] J. Uijlings, K. van de Sande, T. Gevers, and A. Smeulders. Selective search for object recognition. IJCV, 2013. 8 [22] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In CVPR, 2001. 8 [23] J. Xue, J. Li, and Y. Gong. Restructuring of deep neural network acoustic models with singular value decomposition. In Interspeech, 2013. 4 [24] X. Zhu, C. Vondrick, D. Ramanan, and C. Fowlkes. Do we need more training data or better models for object detection? In BMVC, 2012. 7 [25] Y. Zhu, R. Urtasun, R. Salakhutdinov, and S. Fidler. segDeepM: Exploiting segmentation and context in deep neural networks for object detection. In CVPR, 2015. 1,

你可能感兴趣的:(论文解读)