论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

使用RPN实现实时目标检测

摘要

​ 最先进的(State-of-the-art)目标检测网络依靠region proposal算法来推测目标的位置。SPPnet[1]和Fast R-CNN[2]等研究已经减少了这些检测网络的运行时间,这个时候region proposal的计算成为一个瓶颈。在这项工作中,我们介绍了一种Region Proposal Network(RPN),该网络与检测网络共享整个图像的卷积特征,从而使近乎零成本的region proposals成为可能。RPN是一个全卷积网络,可以同时在每个位置预测目标边界(object bounds)和目标分数(objectness scores)。RPN经过端到端的训练,可以生成高质量的region proposals,然后由Fast R-CNN来进行检测。我们将RPN和Fast R-CNN通过共享卷积特征进一步合并为一个单一的网络——使用最近流行的具有“注意力”机制的神经网络术语,RPN组件告诉统一网络在哪里寻找。对于非常深的VGG-16模型[3],我们的检测系统在GPU上的帧率为5fps(包括所有步骤),同时在PASCAL VOC 2007,PASCAL VOC 2012和MS COCO数据集上实现了最新的(state-of-the-art)目标检测精度,每个图像只用了300个proposals。在ILSVRC和COCO 2015竞赛中,Faster R-CNN和RPN是多个比赛中获得第一名输入的基础。代码已开源。

索引项:目标检测、候选区域、卷积神经网络

补充:一个流畅的视频,起码每秒24fps,所以该方式还没有达到实时的效果。

1.引言

​ 目标检测的最新进展是由region proposal方法(例如[4])和基于region的卷积神经网络(R-CNN)[5]的成功所驱动的。尽管在[5]中最初开发的基于region的CNNs计算成本很高,但是多亏proposals之间的共享卷积,所以其成本已经大大降低了[1],[2]。忽略花费在region proposals上的时间,最新版本Fast R-CNN[2]利用非常深的网络[3]实现了接近实时的速率。现在,proposals是最新的检测系统中测试时间的计算瓶颈。

​ region proposal方法通常依赖廉价的特征和简练的推断方案。选择性搜索[4]是最流行的方法之一,它基于精心设计的低级特征贪婪地合并超像素。然而,与有效的检测网络[2]相比,选择性搜索算法的速度慢了一个数量级,在CPU实现中每张图像的时间为2秒。EdgeBoxes[6]目前提供了在proposal质量和速度之间的最佳权衡,每张图像0.2秒。尽管如此,region proposal步骤仍然像检测网络那样消耗同样多的运行时间。

补充:超像素:不是在普通的像素基础上继续微观细分,超像素是一系列像素的集合,这些像素具有类似的颜色、纹理等特征,距离也比较近。

​ 有人可能会注意到,基于region的Fast CNNs使用的是GPU,而在研究中使用的region proposal方法是在CPU上实现的,使得运行时间比较不公平。加速proposal计算的一个显而易见的方法是将其在GPU上重新实现。这可能是一个工程上很有效的解决方案,但其重新实现这个方法却忽略了下游的(down-stream,其后的)检测网络,因此错过了共享计算的重要机会。

​ 在本文中,我们展示了改变后的算法——用深度卷积神经网络计算proposals——引出了一个简洁有效的解决方案,proposal计算几乎不会给检测网络的计算带来消耗。为此,我们引入了新颖的Region Proposal Networks(RPN),它与最先进目标检测网络共享卷积层[1],[2]。通过在测试时共享卷积的操作,计算proposals的边际成本很小(例如,每张图像10ms)。

​ 我们观察发现,基于region的检测器所使用的卷积特征映射,如Fast R-CNN,也可以用于生成region proposals。在这些卷积特征之上,我们通过添加一些额外的卷积层来构建RPN,这些卷积层同时在规则网格上的每个位置上回归区域边界(region bounds)和目标分数(objectness scores)(额外的卷积层应该是两个:第一个层把每个卷积映射位置编码为一个短的(例如256-d)特征向量;第二个层在每个卷积映射位置,输出这个位置上多种尺度和长宽比的k个region proposals的objectness得分和回归边界)。因此RPN是一种全卷积网络(FCN)[7],可以针对生成检测proposals的任务进行端到端的训练

​ RPN旨在有效预测具有广泛尺度和长宽比的region proposals。与使用图像金字塔(图1,a)或滤波器金字塔(图1,b)的流行方法[8],[9],[1]相比,我们引入新的“锚(anchor)”盒作为多种尺度和长宽比的参考。我们的方案可以被认为是回归参考(regression references)的金字塔(图1,c),它避免了枚举多种比例或长宽比的图像或滤波器。这个模型在使用单尺度(single-scale)图像进行训练和测试时运行良好,从而有利于运行速度。

补充:Single scale 就是指一个图片送给CNN一个图片,对应的Multi scale 一般是会送给CNN十张图片,比如高宽是256×256的图片,multi scale 则会在四个角和中心crop 5个224×224,再把五个crop的图片flip(翻转 ),总共得到十个图片送给CNN。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第1张图片

图1:解决多尺度和尺寸的不同方案。(a)构建图像和特征映射金字塔,分类器以各种尺度运行。(b)在特征映射上运行具有多个比例/大小的滤波器的金字塔。(c)我们在回归函数中使用参考边界框金字塔。

​ 为了将RPN与Fast R-CNN 2]目标检测网络相结合,我们提出了一种训练方案,即保持proposals固定,微调region proposal和微调目标检测之间交替进行。该方案收敛很快,最后形成可让两个任务共享卷积特征的标准网络(1.自本文[10]的会议版本发表以来,我们还发现RPNs可以与Fast R-CNN网络联合训练,从而减少训练时间。)

​ 我们在PASCAL VOC检测标准数据集上[11]综合评估了我们的方法,其中具有Fast R-CNN的RPN产生的检测精度优于使用选择性搜索算法的Fast R-CNN的强基准。同时,我们的方法在测试时几乎免除了选择性搜索的所有计算负担——proposals的有效运行时间仅为10毫秒。使用[3]的非常深的深度模型,我们的检测方法在GPU上仍然具有5fps的帧率(包括所有步骤),因此在速度和准确性方面而言,这是一个实用的目标检测系统。我们还报告了在MS COCO数据集上[12]的结果,并使用COCO数据研究了在PASCAL VOC上的改进。代码可公开获得https://github.com/shaoqingren/faster_rcnn(在MATLAB中)和https://github.com/rbgirshick/py-faster-rcnn(在Python中)。

​ 这个手稿的初步版本是以前发表的[10]。从那时起,RPN和Faster R-CNN的框架已经被采用并推广到其他方法,如3D目标检测[13],基于部件的检测[14],实例分割[15]和图像标题[16]。我们快速和有效的目标检测系统也已经在Pinterest[17]的商业系统中建立了,并报告了用户参与度的提高。

​ 在ILSVRC和COCO 2015竞赛中,Faster R-CNN和RPN是ImageNet检测,ImageNet定位,COCO检测和COCO分割中几个第一名参赛者[18]的基础。RPN完全从数据中学习propose regions,因此可以从更深入和更具表达性的特征(例如[18]中采用的101层残差网络)中轻松获益。Faster R-CNN和RPN也被这些比赛中的其他几个主要参赛者所使用(2. http://image-net.org/challenges/LSVRC/2015/results)。这些结果表明,我们的方法不仅是一个实用合算的解决方案,而且是一个提高目标检测精度的有效方法。

2.相关工作

Object Proposals。object proposal方法方面有大量的文献。object proposal方法的综合调查和比较可以在[19],[20],[21]中找到。广泛使用的object proposal方法包括基于超像素分组(例如,选择性搜索[4],CPMC[22],MCG[23])和那些基于滑动窗口的方法(例如objectness in windows[24],EdgeBoxes[6])。Object proposal方法被采用为独立于检测器(例如,选择性搜索[4]目标检测器,R-CNN[5]和Fast R-CNN[2])的外部模块。

用于目标检测的深度网络。R-CNN方法[5]端到端地对CNN进行训练,将proposal regions分类为目标类别或背景。R-CNN主要作为分类器,并不能预测目标边界(除了通过边界框回归进行细化)。其准确度取决于region proposal模块的性能(参见[20]中的比较)。一些论文提出了使用深度网络来预测目标边界框的方法[25],[9],[26],[27]。在OverFeat方法[9]中,训练一个全连接层来预测假定单个目标定位任务的边界框坐标。然后将全连接层变成卷积层,用于检测多个类别的目标。MultiBox方法[26],[27]从网络中生成region proposals,网络最后的全连接层同时预测多个类别不相关的边界框,并推广到OverFeat的“单边界框”方式。这些类别不可知的边界框被用作R-CNN的proposals[5]。与我们的全卷积方案相比,MultiBox的proposal网络适用于单张裁剪图像或多张大型裁剪图像(例如224×224)。MultiBox在proposal和检测网络之间不共享特征。稍后在我们的方法上下文中会讨论OverFeat和MultiBox。与我们的工作同时进行的,DeepMask方法[28]是为学习分割proposals而开发的。

​ 卷积[9],[1],[29],[7],[2]的共享计算已经越来越受到人们的关注,因为它可以有效而准确地进行视觉识别。OverFeat论文[9]计算图像金字塔的卷积特征用于分类,定位和检测。共享卷积特征映射的自适应大小池化(SPP)[1]被开发用于有效的基于region的目标检测[1],[30]和语义分割[29]。Fast R-CNN[2]能够对共享卷积特征进行端到端的检测器训练,并显示出令人信服的准确性和速度。

3.FASTER R-CNN

​ 我们的目标检测系统,称为Faster R-CNN,由两个模块组成。第一个模块是propose regions的深度全卷积网络,第二个模块是使用proposed regions的Fast R-CNN检测器[2]。整个系统是一个单个的,统一的目标检测网络(图2)。使用最近流行的“注意力”[31]机制的神经网络术语,RPN模块告诉Fast R-CNN模块去哪里寻找。在第3.1节中,我们介绍了region proposal网络的设计和属性。在第3.2节中,我们开发了用于训练具有共享特征模块的算法。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第2张图片

图2:Faster R-CNN是一个单一,统一的目标检测网络。RPN模块作为这个统一网络的“注意力”。

3.1Region Proposal网络

​ Region Proposal Network(RPN)以任意大小的图像作为输入,输出一组矩形的目标proposals,每个proposal都有一个目标得分(3.“Region”是一个泛称,在本文中,我们只考虑矩形区域,这是许多方法(如[27],[4],[6])中常见的。“Objectness”衡量了一组对象类与背景的成员关系。)。我们用全卷积网络[7]对这个过程进行建模,我们将在本节进行描述。因为我们的最终目标是与Fast R-CNN目标检测网络[2]共享计算,所以我们假设两个网络共享一组共同的卷积层。在我们的实验中,我们研究了具有5个共享卷积层的Zeiler和Fergus模型[32](ZF)和具有13个共享卷积层的Simonyan和Zisserman模型[3](VGG-16)。

​ 为了生成region proposals,我们在最后的共享卷积层输出的卷积特征映射上滑动一个小网络(指滑动窗口)。这个小网络将输入卷积特征映射的n×n空间窗口作为输入。每个滑动窗口映射到一个低维特征(ZF为256维,VGG为512维,后面是ReLU[33])。这个特征被输入到两个子全连接层(这里其实是用1×1的conv代替了fc)——一个边界框回归层(reg)和一个边界框分类层(cls)。在本文中,我们使用n=3,注意输入的原始图像上的有效感受野是很大的(ZF和VGG分别为171和228个像素)。图3(左)显示了这个小型网络的一个位置。请注意,因为小网络是滑动窗口的形式,所以全连接的层(n×n的)被所有空间位置共享(指所有位置用来计算内积的n×n的层参数相同)。这种结构通过一个n×n卷积层,后接两个同级的1×1卷积层(分别用于reg和cls)自然地实现。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第3张图片

图3:左:Region Proposal Network(RPN)。右:在PASCAL VOC 2007测试集上使用RPN proposals的检测示例。我们的方法可以检测各种尺度和长宽比的目标。

3.1.1锚点

​ 在每个滑动窗口位置,我们同时预测多个region proposals,其中每个位置可能的proposals的最大数目表示为k。因此,reg层具有4k个输出,即k个边界框的坐标编码,cls层输出2k个得分,即每个proposal是目标或不是目标的估计概率(4.为了简单起见,我们用两类的softmax层实现的cls层,还可以使用logistic回归来产生k个得分。)。k个proposals被相应的k个称之为anchor的box参数化。每个anchor以当前滑动窗口中心为中心,并对应一种尺度和长宽比(图3左)。默认情况下,我们使用3种尺度和3种长宽比,这样,在每个滑动位置可以产生k=9个参考边界框(reference boxes)。对于大小为W×H(通常约为2400,如60×40)的卷积特征映射,总共有W×H×k个锚点(这里其实指的是anchor boxes)

平移不变的锚点

​ 我们的方法的一个重要特性是它是平移不变的,对锚点和计算锚点相应的proposals的函数而言都是这样。如果在图像中平移目标,proposal应该平移,并且同样的函数应该能够在任一位置预测proposal。这个平移不变的属性是由我们的方法保证的(5.与FCNs[7]的情况一样,我们的网络是平移不变的,直到网络的总步幅。)。作为比较,MultiBox方法[27]使用k-means生成800个锚点,但这不具有平移不变性。所以如果平移图像中的目标,MultiBox不保证会生成相同的proposal。

​ 平移不变特性也减小了模型的大小。MultiBox有(4+1)×800维的全连接输出层,而我们的方法在k=9个锚点的情况下有(4+2)×9维的卷积输出层。因此,对于VGG-16,我们的输出层具有2.8×104个参数(对于VGG-16为512×(4+2)×9,比MultiBox输出层的6.1×106个参数少了两个数量级(对于MultiBox [27]中的GoogleNet[34]为1536×(4+1)×800)。如果考虑到特征投影层,我们的proposal层仍然比MultiBox少一个数量级(6.考虑到特征投影层,我们的proposal层的参数计数为3×3×512×512+512×6×9=2.4×106;MultiBox的proposal层参数计数为7×7×(64+96+64+64)×1536+1536×5×800=27×106。)。我们期望我们的方法在PASCAL VOC等小数据集上有更小的过拟合风险。

多种尺度锚点作为回归参考

​ 我们的锚点设计提出了一个新的方案来解决多尺度(和长宽比)。如图1所示,多尺度预测有两种流行的方法。第一种方法是基于图像/特征金字塔,例如DPM[8]和基于CNN的方法[9],[1],[2]中。图像在多个尺度上进行缩放,并且针对每个尺度(图1(a))计算特征映射(HOG[8]或深卷积特征[9],[1],[2])。这种方法通常是有用的,但是非常耗时。第二种方法是在特征映射上使用多尺度(和/或长宽比)的滑动窗口。例如,在DPM[8]中,使用不同的滤波器大小(例如5×7和7×5)分别对不同长宽比的模型进行训练。如果用这种方法来解决多尺度问题,可以把它看作是一个“滤波器金字塔”(图1(b))。第二种方法通常与第一种方法联合采用[8]。

​ 作为比较,我们的基于锚点方法建立在锚点金字塔上,这是更具成本效益的。我们的方法参照多尺度和长宽比的锚盒来分类和回归边界框。它只依赖单一尺度的图像和特征映射,并使用单一尺寸的滤波器(特征映射上的滑动窗口)。我们通过实验来展示这个方案解决多尺度和尺寸的效果(表8)。

表8:Faster R-CNN在PAS-CAL VOC 2007测试数据集上使用不同锚点设置的检测结果。网络是VGG-16。训练数据是VOC 2007训练集。使用3种尺度和3种长宽比(69.9%)的默认设置,与表3中的相同。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第4张图片

​ 由于这种基于锚点的多尺度设计,我们可以简单地使用在单尺度图像上计算的卷积特征,Fast R-CNN检测器也是这样做的[2]。多尺度锚点设计是共享特征的关键组件,不需要额外的成本来处理尺度。

3.1.2损失函数

​ 为了训练RPN,我们为每个锚点(anchor,其实是anchor box,下同)分配一个二进制标签(是目标或不是目标)。我们分配正标签给两类锚点:(i)具有与实际边界框(ground-truth box)的重叠最高交并比(IoU)的锚点,或者(ii)具有与实际边界框(ground-truth box)的重叠超过0.7 IoU的锚点。可以注意到一个GT边界框可以为多个锚点分配正标签。通常第二个条件足以确定正样本;但我们仍然采用第一个条件,因为在一些极少数情况下,第二个条件可能找不到正样本。我们分配负标签给与所有GT边界框的IoU都低于0.3的anchor。非正非负的锚点对训练目标没有任何作用。

​ 根据这些定义,我们对目标函数Fast R-CNN[2]中的多任务损失进行最小化目标函数。我们对一个图像的损失函数定义为:

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第5张图片

其中,i是一个mini-batch中锚点(anchor,这里为anchor box,下同)的索引,pi是锚点i是目标的预测概率。如果锚点为正,GT标签pi为1,如果锚点为负,则为0。ti是表示预测边界框(bounding box)的4个参数化坐标的向量,而ti是与正锚点相关的GT边界框的向量。分类损失Lcls是两个类别上(目标或不是目标)的对数损失。对于回归损失,我们使用Lreg(ti,ti)=R(ti−ti),其中R是在[2]中定义的鲁棒的损失函数(smooth L1)。项pi表示回归损失仅对于正锚点激活,否则被禁用(pi=0)(即意味着只有正anchor(pi =1)才有回归损失,其他情况就没有(pi=0))。cls 和 reg 层的输出分别由pi和ti组成。

注意:ti是reg真正预测出的偏移量,即anchor box和predicted box的差异;ti∗是anchor box和gt的差异

​ 这两项用Ncls和Nreg进行标准化,并由一个平衡权重λ归一化。在我们目前的实现中(如在发布的代码中),方程(1)中的cls项通过小批量数据的大小(即Ncls=256)进行归一化,reg项根据锚点位置的数量(即,Nreg∼2400)进行归一化。默认情况下,我们设置λ=10,因此clsreg项的权重大致相等。我们通过实验显示,结果对宽范围的λ值不敏感(表9)。我们还注意到,上面的归一化不是必需的,可以简化。

表9:Faster R-CNN使用方程(1)中不同的λ值在PASCAL VOC 2007测试集上的检测结果。网络是VGG-16。训练数据是VOC 2007训练集。使用λ=10(69.9%)的默认设置与表3中的相同。

在这里插入图片描述

​ 对于边界框(bounding box)回归,我们采用[5]中的4个坐标参数化:

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第6张图片

其中,x,y,w和h表示边界框的中心坐标及其宽和高。变量x,xa和x分别表示预测边界框、锚盒和实际边界框(对y,w,h也是一样)的x坐标。这可以被认为是从锚盒到邻近的GT边界框(ground-truth box)的回归。

​ 然而,我们的方法通过与之前的基于RoI(Region of Interest)方法[1],[2]不同的方式来实现边界框回归。在[1],[2]中,bbox回归在从任意大小的区域中pooling到特征上执行,回归权重是所有不同大小的区域共享的。在我们的公式中,用于回归的特征在特征映射上具有相同的空间大小(3×3)。考虑到各种不同的大小,需要学习一系列k个边界框回归器。每个回归器负责一种尺度和一种长宽比,而k个回归器不共享权重。因此,由于锚点的设计,即使特征具有固定的尺度/比例,仍然可以预测各种尺寸的边界框。

3.1.3训练RPN

​ RPN可以通过反向传播和随机梯度下降(SGD)进行端对端训练[35]。我们遵循[2]的“以图像为中心”的采样策略来训练这个网络。每个mini-batch都从单张图像中产生许多正面和负面示例锚点(anchors,应该是anchor boxes,下同)。对所有锚点的损失函数进行优化是可能的,但是这样会偏向于负样本,因为它们是占主导地位的。因此,我们在图像中随机采样256个锚点,计算一个mini-batch的损失函数,其中采样的正锚点和负锚点的比率可达1:1。如果图像中的正样本少于128个,我们使用负样本填充这个mini-batch。

​ 我们通过从标准差为0.01,均值为0的高斯分布中获取的权重来随机初始化所有新层(最后一个卷积层之后的层)。所有其他层(即共享卷积层)通过ImageNet分类预训练的模型[36]来初始化,如同标准惯例[5]。我们调整ZF网络的所有层,以及VGG网络的conv3_1及其之上的层以节省内存[2]。对于60k个mini-batch,我们使用0.001的学习率,对于PASCAL VOC数据集中的下一个20k个mini-batch,使用0.0001。我们使用0.9的动量和0.0005的权值衰减[37]。我们使用Caffe[38]实现。

3.2RPN和Fast R-CNN共享特征

​ 到目前为止,我们已经描述了如何训练用于region proposal生成的网络,而没有考虑基于region的目标检测CNN如何利用这些proposals。对于检测网络,我们采用Fast R-CNN[2]。接下来我们介绍一些算法,学习由RPN和Fast R-CNN组成的具有共享卷积层的统一网络(图2)。

​ RPN和Fast R-CNN都是独立训练的,要以不同的方式修改它们的卷积层。因此,我们需要开发一种允许在两个网络之间共享卷积层的技术,而不是分别学习两个独立的网络。我们讨论三个方法来训练具有共享特征的网络:

(i) 交替训练。在这个解决方案中,我们首先训练RPN,并使用RPN生成的proposals来训练Fast R-CNN。由Fast R-CNN微调的网络然后被用于初始化RPN,并且重复这个过程。这是本文所有实验中使用的解决方案。

(ii) 近似联合训练。在这个解决方案中,RPN和Fast R-CNN网络在训练期间合并成一个网络,如图2所示。在每次SGD迭代中,前向传递生成region proposals,在训练Fast R-CNN检测器的时候,将这看作是固定的、预计算的proposals。反向传播像往常一样进行,其中对于共享层,组合来自RPN损失和Fast R-CNN损失的反向传播信号。这个解决方案很容易实现。但是这个解决方案忽略了关于proposal boxes的坐标(也是网络响应)的导数,因此是近似的。在我们的实验中,我们实验发现这个求解器产生了很接近的结果,但是与交替训练相比,训练时间却减少了大约25−50%。这个求解器包含在我们发布的Python代码中。

(iii) 非近似的联合训练。如上所述,由RPN预测的边界框也是输入的函数。Fast R-CNN中的RoI池化层[2]接受卷积特征以及预测的边界框作为输入,所以理论上有效的反向传播求解器也应该包括关于边界框坐标的梯度。在上述近似联合训练中,这些梯度被忽略。在一个非近似的联合训练解决方案中,我们需要一个关于边界框坐标可微分的RoI池化层。这是一个重要的问题,可以通过[15]中提出的“RoI warping”层给出解决方案,这超出了这篇论文的范围。

四步交替训练。在本文中,我们采用实用的四步训练算法,通过交替优化来学习共享特征。在第一步中,我们按照3.1.3节的描述训练RPN。该网络使用ImageNet的预训练模型进行初始化,端到端微调用于region proposal任务。在第二步中,我们使用由第一步RPN生成的proposals,由Fast R-CNN训练一个单独的检测网络。该检测网络也由ImageNet的预训练模型进行初始化。此时两个网络还没有共享卷积层。在第三步中,我们使用检测器网络来初始化RPN训练,但是我们固定共享的卷积层,并且只对RPN特有的层进行微调。现在这两个网络共享卷积层。最后,保持共享卷积层的固定,我们对Fast R-CNN的独有层进行微调。因此,两个网络共享相同的卷积层并形成统一的网络。类似的交替训练可以运行更多的迭代,但是我们只观察到可以忽略的改进。

3.3实现细节

​ 我们在单一尺度的图像上训练和测试region proposal和目标检测网络[1],[2]。我们重新缩放图像,使得它们的短边是s=600像素[2]。多尺度特征提取(使用图像金字塔)可能会提高精度,但不会表现出速度与准确率之间的权衡[2]。我们也注意到ZF和VGG网络,对缩放后的图像在最后一个卷积层的总步长为16像素,这样相当于一个典型的PASCAL图像(~500x375)上大约10个像素(600/16=375/10)。即使如此大的步长也能提供良好的效果,尽管步幅更小,精度可能会进一步提高。

​ 对于锚点,我们使用了3个尺度,边界框面积分别为128×128,256×256和512×512个像素,以及1:1,1:2和2:1的长宽比。这些超参数不是针对特定数据集仔细选择的,我们将在下一节中提供有关其作用的消融实验。如上所述,我们的解决方案不需要图像金字塔或滤波器金字塔来预测多个尺度的区域,节省了大量的运行时间。图3(右)显示了我们的方法在广泛的尺度和长宽比方面的能力。表1显示了使用ZF网络的每个锚点学习到的平均proposal大小。我们注意到,我们的算法允许预测比基础感受野更大。这样的预测不是不可能的——如果只有目标的中间部分是可见的,那么仍然可以粗略地推断出目标的范围。

表1:使用ZF网络的每个锚点学习到的平均proposal大小(s=600的数字)。

在这里插入图片描述
​ 跨越图像边界的锚盒需要小心处理。在训练过程中,我们忽略了所有的跨界锚点,所以不会对损失有影响。对于一个典型的1000×600的图片,总共将会有大约20k(≈60×40×9)个锚点。跨界锚点被忽略以后,每张图像约有6k个锚点用于训练。如果跨界异常值在训练中不被忽略,则会在目标函数中引入大的,难以纠正的误差项,且训练不会收敛。但在测试过程中,我们仍然将全卷积RPN应用于整张图像。这可能会产生跨边界的proposal边界框,我们会将其剪切到图像边缘位置。

​ 一些RPN proposals互相之间高度重叠。为了减少冗余,我们在proposal regions上根据他们的cls分数采取非极大值抑制(NMS)。我们将NMS的IoU阈值固定为0.7,这就给每张图像留下了大约2000个proposal regions。正如我们将要展示的那样,NMS不会损害最终的检测准确性,但会大大减少proposals的数量。在NMS之后,我们使用前N个proposal regions来进行检测。在下文中,我们使用2000个RPN proposals对Fast R-CNN进行训练,但在测试时评估不同数量的proposals。

4.实验

4.1PASCAL VOC上的实验

​ 我们在PASCAL VOC 2007检测基准数据集[11]上综合评估了我们的方法。此数据集包括20个目标类别,大约5k个trainval图像和5k个test图像。我们还提供了一些模型在PASCAL VOC 2012基准数据集上的测试结果。对于ImageNet预训练网络,我们使用具有5个卷积层和3个全连接层的ZF网络[32]的“fast”版本以及具有13个卷积层和3个全连接层的公开的VGG-16模型[3]。我们主要评估检测的平均精度均值(mAP),因为这是对目标检测的实际度量标准(而不是侧重于object proposal的代理度量)。

​ 表2(顶部)显示了使用各种region proposal方法进行训练和测试的Fast R-CNN结果。这些结果使用ZF网络。对于选择性搜索(SS)[4],我们通过“fast”模式生成约2000个proposals。对于EdgeBoxes(EB)[6],我们通过调整0.7 IoU的默认EB设置生成proposals。SS在Fast R-CNN框架下的mAP为58.7%,EB的mAP为58.6%。RPN与Fast R-CNN取得了有竞争力的结果,使用多达300个proposals,mAP为59.9%。由于共享卷积计算,使用RPN比使用SS或EB产生了更快的检测系统;较少的proposals也减少了区域方面的全连接层消耗(表5)。

表2:PASCAL VOC 2007测试集上的检测结果(在VOC 2007训练评估集上进行了训练)。检测器是带有ZF的Fast R-CNN,但使用各种proposal方法进行训练和测试。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第7张图片

表5:K40 GPU上的时间(ms),除了SS提议是在CPU上评估。“区域方面”包括NMS,池化,全连接和softmax层。查看我们发布的代码来分析运行时间。

在这里插入图片描述

RPN上的消融实验。为了研究RPN作为proposal方法的性能,我们进行了多次消融研究。首先,我们展示了RPN和Fast R-CNN检测网络之间共享卷积层的效果。要做到这一点,我们在四步训练过程的第二步之后停止训练。使用分离的网络时结果略微降低到58.7%(RPN+ZF,非共享,表2)。我们观察到,这是因为在第三步中,当调整过的检测器特征用于微调RPN时,proposal质量得到了提高。

​ 接下来,我们分析RPN对训练Fast R-CNN检测网络的影响。为此,我们通过使用2000个SS proposals和ZF网络来训练了一个Fast R-CNN模型。我们固定这个检测器,并通过改变测试时使用的proposal regions来评估检测的mAP。在这些消融实验中,RPN不与检测器共享特征。

​ 在测试阶段用300个RPN proposals替换SS proposals得到了56.8%的mAP。mAP的损失是因为训练/测试proposals不一致。这个结果作为以下比较的基准。

​ 有些令人惊讶的是,RPN在测试时使用排名最高的100个proposals仍然会取得有竞争力的结果(55.1%),表明排名靠前的RPN proposals是准确的。另外一种极端情况,使用排名靠前的6k个RPN proposals(无NMS)取得具有可比性的mAP(55.2%),这表明NMS不会降低检测mAP,反而可能减少误报。

​ 接下来,我们通过在测试时分别移除RPN的clsreg中的一个,研究它们输出的作用。当cls层在测试时被移除(因此不使用NMS/排名),我们从没有计算得分的区域中随机采样N个proposals。当N=1k时,mAP几乎没有变化(55.8%),但是当N=100时,会大大降低到44.6%。这表明cls得分考虑了排名最高的proposals的准确性。

​ 另一方面,当在测试阶段移除reg层(这样的proposals框就直接是锚盒了)时,mAP将下降到52.1%。这表明高质量的proposals主要归功于回归的边界框(即回归后的位置)。锚盒虽然具有多种尺度和长宽比,但不足以进行精确检测。

​ 我们还单独评估了更强大的网络对RPN proposal质量的影响。我们使用VGG-16来训练RPN,仍然使用上述的SS+ZF检测器。mAP从56.8%(使用RPN+ZF)提高到59.2%(使用RPN+VGG)。这是一个满意的结果,因为这表明RPN+VGG的proposal质量要好于RPN+ZF。由于RPN+ZF的 proposals与SS具有竞争性(训练和测试一致使用时,都是58.7%),所以我们可以预期RPN+VGG比SS更好。以下实验验证了这个假设。

**VGG-16的性能。**表3显示了VGG-16对proposal和检测的结果。使用RPN+VGG,Fast R-CNN对非共享特征的结果是68.5%,略高于SS的基准。如上所示,这是因为RPN+VGG生成的proposals比SS更准确。与预先定义的SS不同,RPN是实时训练的并能从更好的网络中受益。对于特性共享的变型,结果是69.9%——比强大的SS基准更好,proposals几乎无损耗。我们在PASCAL VOC 2007和2012的trainval的并集上进一步训练RPN和检测网络,mAP是73.2%。图5显示了PASCAL VOC 2007测试集的一些结果。在PASCAL VOC 2012测试集(表4)中,我们的方法在VOC 2007的trainval+test和VOC 2012的trainval的并集上训练的模型取得了70.4%的mAP。表6和表7显示了详细的数字。

表3:PASCAL VOC 2007测试集的检测结果。检测器是Fast R-CNN和VGG-16。训练数据:“07”:VOC 2007 trainval,“07 + 12”:VOC 2007 trainval和VOC 2012 trainval的并集。对于RPN,训练时Fast R-CNN的proposals数量为2k。†:[2]中报道的数字;使用本文提供的仓库,这个结果更高(68.1)。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第8张图片

表4:PASCAL VOC 2012测试集的检测结果。检测器是Fast R-CNN和VGG-16。训练数据:“07”:VOC 2007 trainval,“07 + 12”:VOC 2007 trainval和VOC 2012 trainval的联合训练集。对于RPN,训练时Fast R-CNN的proposals数量为2000。†:http://host.robots.ox.ac.uk:8080/anonymous/HZJTQA.html。‡:http://host.robots.ox.ac.uk:8080/anonymous/YNPLXB.html。§:http://host.robots.ox.ac.uk:8080/anonymous/XEDH10.html。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第9张图片

表6:使用Fast R-CNN检测器和VGG-16在PASCAL VOC 2007测试集上的结果。对于RPN,训练时Fast R-CNN的proposals数量为2000。RPN表示没有共享特征的版本。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第10张图片

表7:使用Fast R-CNN检测器和VGG-16在PASCAL VOC 2012测试集上的结果。对于RPN,训练时Fast R-CNN的proposals数量为2000。

在这里插入图片描述

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第11张图片

图5:使用Faster R-CNN系统在PASCAL VOC 2007测试集上选择的目标检测结果示例。该模型是VGG-16,训练数据是07+12 trainval(2007年测试集中73.2%73.2%的mAP)。我们的方法检测广泛的尺度和长宽比目标。每个输出框都与类别标签和[0,1]之间的softmax分数相关联。使用0.6的分数阈值来显示这些图像。获得这些结果的运行时间为每张图像198ms,包括所有步骤。

在表5中我们总结了整个目标检测系统的运行时间。根据内容(平均大约1.5s),SS需要1-2秒,而使用VGG-16的Fast R-CNN在2k个SS proposals上需要320ms(如果在全连接层上使用SVD[2],则需要223ms)。我们的VGG-16系统在proposal和检测上总共需要198ms。在共享卷积特征的情况下,单独RPN只需要10ms计算附加的几层。我们的区域计算花费也很低,这要归功于较少的proposals(每张图片300个)。我们的采用ZF网络的系统,帧速率为17fps。

对超参数的敏感度。在表8中,我们调查锚点的设置。默认情况下,我们使用3种尺度和3种长宽比(表8中69.9%的mAP)。如果在每个位置只使用一个锚点,那么mAP的下降幅度将是3−4%。如果使用3种尺度(1种长宽比)或3种长宽比(1种尺度),则mAP更高,表明使用多种尺寸的锚点作为回归参考是有效的解决方案。在这个数据集上,仅使用具有1种长宽比(69.8%)的3种尺度与使用具有3种长宽比的3个尺度一样好,这表明尺度和长宽比不是检测准确度的解决维度。但我们仍然在设计中采用这两个维度来保持我们的系统灵活性。

​ 在表9中,我们比较了公式(1)中λ的不同值。默认情况下,我们使用λ=10,这使方程(1)中的两个项在归一化之后大致相等地加权。表9显示,当λ在大约两个数量级(1到100)的范围内时,我们的结果只是稍微受到影响(∼1%∼1%)。这表明结果对宽范围内的λ不敏感。

IoU召回率的分析。接下来,我们使用GT边界框与proposals在不同的IoU比例时的召回率。值得注意的是,该IoU召回率度量标准与最终的检测精度只是松散相关的[19,20,21]。使用这个度量标准来诊断proposal方法比评估proposal方法更合适。

​ 在图4中,我们显示了使用300,1k和2k个proposals的结果。我们与SS和EB进行比较,并且这N个proposals是基于用这些方法生成的按置信度排名的前N个。从图中可以看出,当proposals数量从2k个减少到300个时,RPN方法表现很好。这就解释了为什么RPN在使用300个proposals时具有良好的最终检测mAP。正如我们之前分析过的,这个属性主要归因于RPN的cls项。当proposals较少时,SS和EB的召回率下降的比RPN更快。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第12张图片

图4:PASCAL VOC 2007测试集上的召回率 vs IoU重叠率。

单级的检测 vs 两级的proposal+检测。OverFeat论文[9]提出了一种在卷积特征映射的滑动窗口上使用回归器和分类器的检测方法。OverFeat是一个单级的,类特定的检测流程,而我们的是两级的,由类无关的proposals方法和类特定的检测组成的级联方法。在OverFeat中,区域特征来自一种尺度金字塔上一种长宽比的滑动窗口。这些特征用于同时确定目标的位置和类别。在RPN中,特征都来自正方形(3×3)滑动窗口,并且预测相对于锚点具有不同尺度和长宽比的proposals。虽然这两种方法都使用滑动窗口,但region proposal任务只是Faster R-CNN的第一级——下游的Fast R-CNN检测器会致力于对proposals进行细化改进。在我们级联方法的第二级,区域一级的特征自适应地从proposal框进行pooling[1],[2],更如实地覆盖区域的特征。我们相信这些特征会带来更准确的检测结果。

​ 为了比较单级和两级系统,我们通过单级的Fast R-CNN来模拟OverFeat系统(从而也规避了实现细节的其他差异)。在这个系统中,“proposals”有是3种尺度(128,256,512)和3种长宽比(1:1,1:2,2:1)的密集滑动窗口。Fast R-CNN被训练来从这些滑动窗口预测特定类的得分和回归盒的位置。由于OverFeat系统采用图像金字塔,我们也使用从5种尺度中提取的卷积特征进行评估。我们使用[1],[2]中一样的5种尺度。

​ 表10比较了两级系统和单级系统的两个变种。使用ZF模型,单级系统具有53.9%的mAP。这比二级系统(58.7%)低4.8%。这个实验验证了级联region proposals和目标检测的有效性。在文献[2],[39]中报道了类似的观察结果,在这两篇论文中,用滑动窗口取代SS region proposals会导致∼6%的下降。我们也注意到,一级系统更慢,因为它有相当多的proposals要处理。

表10:单级检测与两级proposal+检测。使用ZF模型和Fast R-CNN在PASCAL VOC 2007测试集上的检测结果。RPN使用未共享的特征。

在这里插入图片描述

4.2在MS COCO上的实验

​ 我们在Microsoft COCO目标检测数据集[12]上提供了更多的结果。这个数据集包含80个目标类别。我们用训练集上的8万张图像,验证集上的4万张图像以及测试开发集上的2万张图像进行实验。我们评估了IoU∈[0.5:0.05:0.95]的平均mAP(COCO标准度量,简称为mAP@[.5,.95])和[email protected](PASCAL VOC度量)。

​ 我们的系统对这个数据集做了一些小的改动。我们在8个GPU实现上训练我们的模型,RPN(每个GPU 1个)和Fast R-CNN(每个GPU 2个)的有效最小批大小为8个。RPN步骤和Fast R-CNN步骤都以24万次迭代进行训练,学习率为0.003,然后以0.0003的学习率进行8万次迭代。我们修改了学习率(从0.003而不是0.001开始),因为小批量数据的大小发生了变化。对于锚点,我们使用3个长宽比和4个尺度(加上642),这主要是通过处理这个数据集上的小目标来激发的。此外,在我们的Fast R-CNN步骤中,负样本定义为与GT边界框的最大IOU在[0,0.5)区间内的样本,而不是[1],[2]中使用的[0.1,0.5)之间。我们注意到,在SPPnet系统[1]中,在[0.1,0.5)中的负样本用于网络微调,但[0,0.5)中的负样本仍然在具有难例挖掘SVM步骤中被访问。但是Fast R-CNN系统[2]放弃了SVM步骤,所以[0,0.1]中的负样本都不会被访问。包括这些[0,0.1)的样本,在Fast R-CNN和Faster R-CNN系统在COCO数据集上改进了[email protected](但对PASCAL VOC的影响可以忽略不计)。

​ 其余的实现细节与PASCAL VOC相同。特别的是,我们继续使用300个proposals和单一尺度(s=600)测试。COCO数据集上的测试时间仍然是大约200ms处理一张图像。

​ 在表11中,我们首先报告了使用本文实现的Fast R-CNN系统[2]的结果。我们的Fast R-CNN基准在test-dev数据集上有39.3%的[email protected],比[2]中报告的更高。我们推测造成这种差距的原因主要是由于负样本的定义以及小批量大小的变化。我们也注意到mAP@[.5,.95]恰好相当。

表11:在MS COCO数据集上的目标检测结果(%)。模型是VGG-16。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第13张图片

​ 接下来我们评估我们的Faster R-CNN系统。使用COCO训练集训练,在COCO测试开发集上Faster R-CNN有42.1%的[email protected]和21.5%的mAP@[0.5,0.95]。与相同协议下的Fast R-CNN相比,[email protected]要高2.8%,mAP@[.5, .95]要高2.2%(表11)。这表明,在更高的IoU阈值上,RPN对提高定位精度表现出色。使用COCO训练集训练,在COCO测试开发集上Faster R-CNN有42.7%的[email protected]和21.9%的mAP@[.5, .95]。图6显示了MS COCO测试开发数据集中的一些结果。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第14张图片

图6:使用Faster R-CNN系统在MS COCO test-dev数据集上选择的目标检测结果示例。该模型是VGG-16,训练数据是COCO训练数据(在测试开发数据集上为42.7%的[email protected])。每个输出框都与一个类别标签和[0, 1]之间的softmax分数相关联。使用0.6的分数阈值来显示这些图像。对于每张图像,一种颜色表示该图像中的一个目标类别。

在ILSVRC和COCO 2015比赛中的Faster R-CNN。我们已经证明,由于RPN通过神经网络完全学习propose regions,Faster R-CNN从更好的特征中受益更多。即使将深度增加到100层以上,这种观察仍然是有效的[18]。仅用101层残差网络(ResNet-101)代替VGG-16,Faster R-CNN系统就将mAP从41.541.5(VGG-16)增加到48.4%/27.2%(ResNet-101)。与其他改进正交于Faster R-CNN,何等人[18]在COCO测试开发数据集上获得了单模型55.7%/34.9%的结果和59.0%/37.4%的组合结果,在COCO 2015目标检测竞赛中获得了第一名。同样的系统[18]也在ILSVRC 2015目标检测竞赛中获得了第一名,超过第二名绝对的8.5%。RPN也是ILSVRC2015定位和COCO2015分割竞赛第一名获奖输入的基石,详情请分别参见[18]和[15]。

4.3从MS COCO到PASCAL VOC

​ 大规模数据对改善深度神经网络至关重要。接下来,我们调查MS COCO数据集如何帮助改进在PASCAL VOC上的检测性能。

​ 作为一个简单的基准数据,我们直接在PASCAL VOC数据集上评估COCO检测模型,而无需在任何PASCAL VOC数据上进行微调。这种评估是可能的,因为COCO类别是PASCAL VOC上类别的超集。在这个实验中忽略COCO专有的类别,softmax层仅在20个类别和背景上执行。这种设置下PASCAL VOC 2007测试集上的mAP为76.1%(表12)。即使没有利用PASCAL VOC的数据,这个结果也好于在VOC07+12(73.2%)上训练的模型的结果。

​ 然后我们在VOC数据集上对COCO检测模型进行微调。在这个实验中,COCO模型代替了ImageNet的预训练模型(用于初始化网络权重),Faster R-CNN系统按3.2节所述进行微调。这样做在PASCAL VOC 2007测试集上可以达到78.8%的mAP。来自COCO集合的额外数据增加了5.6%的mAP。表6显示,在PASCAL VOC 2007上,使用COCO+VOC训练的模型在每个类别上具有最好的AP值。在PASCAL VOC 2012测试集(表12和表7)中也观察到类似的改进。我们注意到获得这些强大结果的测试时间速度仍然是每张图像200ms左右。

表6:Fast R-CNN检测器和VGG-16在PASCAL VOC 2007测试集上的结果。对于RPN,Fast R-CNN的训练时的proposals数量是2000。RPN表示取消共享特征的版本。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第15张图片

表12:使用不同的训练数据在PASCAL VOC 2007测试集和2012测试集上检测Faster R-CNN的检测mAP(%)。模型是VGG-16。“COCO”表示COCOtrainval数据集用于训练。另见表6和表7。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第16张图片

表7:Fast R-CNN检测器和VGG-16在PASCAL VOC 2012测试集上的结果。对于RPN,Fast R-CNN的训练时的proposals数量是2000。

论文翻译 | Faster R-CNN:《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks》_第17张图片

5.结论

​ 我们对高效和准确的region proposal的生成提出了RPN。通过与其后的检测网络共享卷积特征,region proposal的步骤几乎是无损耗的。我们的方法使一个统一的,基于深度学习的目标检测系统能够以接近实时的帧率运行。学习到的RPN也提高了region proposal的质量,从而提高了整体的目标检测精度。

REFERENCES

[1] K. He, X. Zhang, S. Ren, and J. Sun, “Spatial pyramid pooling in deep convolutional networks for visual recognition,” in European Conference on Computer Vision (ECCV), 2014.

[2] R. Girshick, “Fast R-CNN,” in IEEE International Conference on Computer Vision (ICCV), 2015.

[3] K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” in International Conference on Learning Representations (ICLR), 2015.

[4] J. R. Uijlings, K. E. van de Sande, T. Gevers, and A. W. Smeulders, “Selective search for object recognition,” International
Journal of Computer Vision (IJCV), 2013.

[5] R. Girshick, J. Donahue, T. Darrell, and J. Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014.

[6] C. L. Zitnick and P. Dollár, “Edge boxes: Locating object proposals from edges,” in European Conference on Computer Vision(ECCV),2014.

[7] J. Long, E. Shelhamer, and T. Darrell, “Fully convolutional networks for semantic segmentation,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.

[8] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan, “Object detection with discriminatively trained part-based models,” IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2010.

[9] P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun, “Overfeat: Integrated recognition, localization and detection using convolutional networks,” in International Conference on Learning Representations (ICLR), 2014.

[10] S. Ren, K. He, R. Girshick, and J. Sun, “FasterR-CNN: Towards real-time object detection with region proposal networks,” in
Neural Information Processing Systems (NIPS), 2015.

[11] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman, “The PASCAL Visual Object Classes Challenge 2007 (VOC2007) Results,” 2007.

[12] T.-Y. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Dollár, and C. L. Zitnick, “Microsoft COCO: Common Objects in Context,” in European Conference on Computer Vision (ECCV), 2014.

[13] S. Song and J. Xiao, “Deep sliding shapes for amodal 3d object detection in rgb-d images,” arXiv:1511.02300, 2015.

[14] J. Zhu, X. Chen, and A. L. Yuille, “DeePM: A deep part-based model for object detection and semantic part localization,” arXiv:1511.07131, 2015.

[15] J. Dai, K. He, and J. Sun, “Instance-aware semantic segmentation via multi-task network cascades,” arXiv:1512.04412, 2015.

[16] J. Johnson, A. Karpathy, and L. Fei-Fei, “Densecap: Fully convolutional localization networks for dense captioning,” arXiv:1511.07571, 2015.

[17] D. Kislyuk, Y. Liu, D. Liu, E. Tzeng, and Y. Jing, “Human curation and convnets: Powering item-to-item recommendations on pinterest,” arXiv:1511.04003, 2015.

[18] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” arXiv:1512.03385, 2015.

[19] J. Hosang, R. Benenson, and B. Schiele, “How good are detection proposals, really?” in British Machine Vision Conference (BMVC), 2014.

[20] J. Hosang, R. Benenson, P. Dollar, and B. Schiele, “What makes for effective detection proposals?” IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2015.

[21] N. Chavali, H. Agrawal, A. Mahendru, and D. Batra, “Object-Proposal Evaluation Protocol is ’Gameable’,” arXiv: 1505.05836, 2015.

[22] J. Carreira and C. Sminchisescu, “CPMC: Automatic object segmentation using constrained parametric min-cuts,” IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2012.

[23] P. Arbelaez, J. Pont-Tuset, J. T. Barron, F. Marques, and J. Malik, “Multiscale combinatorial grouping,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014.

[24] B. Alexe, T. Deselaers, and V. Ferrari, “Measuring the objectness of image windows,” IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI), 2012.

[25] C. Szegedy, A. Toshev, and D. Erhan, “Deep neural networks for object detection,” in Neural Information Processing Systems (NIPS), 2013.

[26] D. Erhan, C. Szegedy, A. Toshev, and D. Anguelov, “Scalable object detection using deep neural networks,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014.

[27] C. Szegedy, S. Reed, D. Erhan, and D. Anguelov, “Scalable, high-quality object detection,” arXiv:1412.1441 (v1), 2015.

[28] P. O. Pinheiro, R. Collobert, and P. Dollar, “Learning to segment object candidates,” in Neural Information Processing Systems (NIPS), 2015.

[29] J. Dai, K. He, and J. Sun, “Convolutional feature masking for joint object and stuff segmentation,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.

[30] S. Ren, K. He, R. Girshick, X. Zhang, and J. Sun, “Object detection networks on convolutional feature maps,” arXiv:1504.06066, 2015.

[31] J. K. Chorowski, D. Bahdanau, D. Serdyuk, K. Cho, and Y. Bengio, “Attention-based models for speech recognition,” in Neural Information Processing Systems (NIPS), 2015.

[32] M. D. Zeiler and R. Fergus, “Visualizing and understanding convolutional neural networks,” in European Conference on Computer Vision (ECCV), 2014.

[33] V. Nair and G. E. Hinton, “Rectified linear units improve restricted boltzmann machines,” in International Conference on Machine Learning (ICML), 2010.

[34] C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. Reed, D. Anguelov, D. Erhan, and A. Rabinovich, “Going deeper with convolutions,” in IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015.

[35] Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, and L. D. Jackel, “Backpropagation applied to handwritten zip code recognition,” Neural computation, 1989.

[36] O. Russakovsky, J. Deng, H. Su, J. Krause, S. Satheesh, S. Ma, Z. Huang, A. Karpathy, A. Khosla, M. Bernstein, A. C. Berg, and L. Fei-Fei, “ImageNet Large Scale Visual Recognition Challenge,” in International Journal of Computer Vision (IJCV), 2015.

[37] A. Krizhevsky, I. Sutskever, and G. Hinton, “Imagenet classification with deep convolutional neural networks,” in Neural Information Processing Systems (NIPS), 2012.

[38] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell, “Caffe: Convolutional architecture for fast feature embedding,” arXiv:1408.5093, 2014.

[39] K. Lenc and A. Vedaldi, “R-CNN minus R,” in British Machine Vision Conference (BMVC), 2015.

你可能感兴趣的:(目标检测论文翻译和理解,目标检测,cnn,计算机视觉,深度学习,神经网络)