CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络

点击上方“3D视觉工坊”,选择“星标”

干货第一时间送达

 Anchor-free目标检测新网络,在COCO上可达48 AP!性能优于CenterNet、RPDet等网络,代码即将开源!


1

引言

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第1张图片

摘要:基于关键点的检测器性能还不错,不过匹配错关键点的情况还是经常发生,并极大地影响了探测器的性能。作者在这篇文章中提出一种使用向心偏移来对同一实例中的角点进行配对的CentripetalNet向心网络。向心网络可以预测角点的位置和向心偏移,并匹配移动结果对齐的角。结合位置信息,这种方法比传统的嵌入方法更准确地匹配角点。角池将边界框内的信息提取到边界上。为了使这些信息在角落里更容易被察觉,作者又设计了一个交叉星可变形卷积网络来适应特征。除了检测,通过为作者的CentripetalNet安置一个mask预测模块来探索anchor-free检测器上的实例分割。在MS-COCO test-dev上,CentripetalNet不仅以48.0%的AP胜过所有现有的anchor-free检测器,而且以40.2%的MaskAP达到了与最新实例分割方法相当的性能

代码将在https: // github.com/kiveedong/petalnet上提供。

2

思路创新点

  • 传统方法:

主要采用关联嵌入(associative embeding)法对角点进行配对,需要网络对每个角点额外学习一个嵌入(embeding),判断两个角是否属于同一个边框。以这种方式,如果两个角来自同一个box,它们将有类似的嵌入,否则,它们的嵌入将是非常不同的。基于关联嵌入的检测器在目标检测中取得了良好的性能,但也存在一定的局限性。

  • 缺点:

首先,传统方法在训练过程中运用推拉损失来学习每个点的嵌入。推损(Push loss)将在不属于同一物体的点之间计算,以使它们彼此远离。而拉损(Pull loss)只考虑来自同一物体的点之间的拉损。因此,在训练过程中,网络实际上是被训练来寻找对角线上所有潜在点中唯一的匹配点。它对异常值高度敏感,当一个训练样本中有多个相似对象时,训练难度会急剧增加

其次,嵌入预测是基于外观轮廓,没有使用位置信息,因此如图1所示,如果两个物体有相似的外观,即使相距很远,网络也倾向于预测它们的相似嵌入

  • 基于上述考虑,作者提出两点创新:

  1. 一种新颖的向心偏移角匹配方法

    向心偏移给定一对角作者定义一个二维向量,即向心位移,对于每个角,向心位移编码空间偏移从角落到盒子中心点。这样,每个角都可以根据向心位移产生一个中心点,如果两个角属于同一个边框,那么它们产生的中心点应该是相近的。匹配的质量可以用两个中心之间的距离和匹配的几何中心来表示。结合每个角点的位置信息,与关联嵌入方法相比,该方法对异常值具有较强的鲁棒性。

  2. 一种能够更好地预测向心偏移的交叉星形可变形卷积模块

交叉星可变形卷积,不仅可以学习一个大的感受野,而且还可以学习“cross stars”的几何结构。可以观察到角池corner pool输出的feature map中有一些“cross stars”。

3

CentripetalNet

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第2张图片

  • 网络结构

上图为centrpetalnet的核心结构。Centrpetalnet由四个模块组成,分别是角点预测模块向心移位模块交叉星可变形卷积模块实例掩码头模块

  • 工作原理

首先基于Centernet pipline生成角点候选对象。对于所有的角点候选项,引入向心移位算法来追求高质量的角点对并生成最终的预测边界框。向心偏移模块预测角点的向心偏移,并匹配角对,这些对角对的偏移结果从其位置解码,并且向心偏移对齐。

然后,交叉星可变形卷积,它的偏移场是从角到相应中心的偏移中学习,进行特征适应,丰富角位置的视觉特征,这对于提高向心位移模块的精度是很重要的。

最后,添加了一个实例掩码模块来进一步提高检测性能,并将该方法扩展到实例分割区域。该方法以向心位移模块的预测边框为region proposals,利用RoIAlign提取region特征,并利用小型卷积网络对分割掩码进行预测。centrpetalnet是端到端训练的,可以使用或不使用实例分割模块进行推理。

3.1 Centripetal Shift Module

  • Centripetal Shift 向心偏移:

对于一个box:

它的中心为:

 


作者定义它两个角点的向心偏移为:

这里作者使用对数函数来减少向心位移的数值范围,使学习过程更容易。

在训练中,作者在地面真值角的位置应用平滑的L1损失:

  •  Corner Matching.

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第3张图片

为了匹配角点,作者设计了一种利用角点向心位移和位置的匹配方法。一个属于同一边界框的一对角应该共享该框的中心,至少直觉上来说这是合理的。由于我们可以从预测角的位置和向心偏移中解码出相应的中心,因此很容易比较一对角的中心是否足够靠近并接近由角对组成的边界框的中心,例如如图3(c)所示。

基于以上观察,作者的方法如下,一旦从角热图和局部偏移特征图中获得角作者将相同类别的角进行分组,满足tlx < brxtly < bry的条件,构造预测边框。对于每个边界框bboxj作者将其得分设置为其角点得分的几何平均值,这些分数是通过在预测的角点热图上应用softmax得到的。然后,如图3所示,作者将每个边界框的中心区域定义为公式3,以比较解码中心和边界框中心的接近度。

 


其角点坐标表示为:

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第4张图片

其中0<µ≤1表示中心区域的宽度和高度是边界框的宽度和高度的µ倍。通过向心偏移,可以分别解码左上角和右下角的中心(tlctx, tlcty)(brctx, brcty)

然后作者计算每个预测边界框的得分权重wj,这意味着回归的中心更接近,预测的box有更高的得分权重。

对于其他边界框,作者设置wj=0。最后,作者可以通过乘以分数权重对预测的边界框进行重新评分。

 

3.2. Cross-star Deformable Convolution

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第5张图片

由于角点池的原因,feature map中出现了一些“cross stars”,如图4(a)所示。“十字星”的边界保持了对象的丰富上下文信息,因为角池使用maxsum操作将对象的位置信息扩展到沿“十字星”边界的角。要获取‘cross star’的上下文信息,不仅需要一个大的感受野,还需要学习‘cross star’的几何结构。基于上述直觉,作者提出了交叉星可变形卷积,这是一种新颖的卷积运算,用于增强拐角处的视觉特征。

作者提出的可变形的交叉星卷积如图2所示。

首先,作者将角池的特征映射输入到可变形的交叉星卷积模块中。为了学习可变形卷积的“十字星”的几何结构,使用对应目标的大小来显式地引导偏移场分支,因为“十字星”的形状与包围盒的形状有关。然而,以左上角为例,他们应该少注意“十字星”的左上角,因为有更多的无用信息在目标之外。

因此,者嵌入了一个导向偏移——从角落到中心的偏移到偏移场分支,如图3(b)所示,它包含了形状和方向信息。具体来说,偏移场是在三个卷积层上进行的。前两个卷积层将角池输出嵌入到feature map中,其Loss如下:

 

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第6张图片

第二个卷积层将上述特征映射到偏移量字段,偏移量字段显式地包含上下文和几何信息。作者的cross-star deformable convolution通过将学习到的偏移场可视化,如图7c所示,可以有效地学习' cross star '的几何信息,提取' cross star '的边界信息。

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第7张图片

3.3. Instance Mask Head

为了得到实例分割掩码,作者将soft-nms前的检测结果作为region proposals,并利用全卷积神经网络对掩码进行预测。为了保证检测模块能够产生方案,作者首先对中心网进行了几个时代的预训练。选择得分最高的k个提案,然后在主干网的特征图上进行RoIAlign,得到它们的特征。作者将RoIAlign的尺寸设置为14×14,并预测得到一个28×28的掩模。在得到RoI的特性后,作者应用连续四个3×3层卷积,然后用一层反卷积upsample特性映射到28×28 mask地图。在训练过程中,作者对每个区域的方案应用交叉熵损失。

 

4

实验和结果


COCO数据集比较:

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第8张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第9张图片

 实例分割:

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第10张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第11张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第12张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第13张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第14张图片

CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络_第15张图片

上述内容,如有侵犯版权,请联系作者,会自行删文。

推荐阅读

吐血整理|3D视觉系统化学习路线

那些精贵的3D视觉系统学习资源总结(附书籍、网址与视频教程)

超全的3D视觉数据集汇总

大盘点|6D姿态估计算法汇总(上)

大盘点|6D姿态估计算法汇总(下)

机器人抓取汇总|涉及目标检测、分割、姿态识别、抓取点检测、路径规划

汇总|3D点云目标检测算法

汇总|3D人脸重建算法

那些年,我们一起刷过的计算机视觉比赛

总结|深度学习实现缺陷检测

深度学习在3-D环境重建中的应用

汇总|医学图像分析领域论文

大盘点|OCR算法汇总

重磅!3DCVer-知识星球和学术交流群已成立

3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导,650+的星球成员为创造更好的AI世界共同进步,知识星球入口:

学习3D视觉核心技术,扫描查看介绍,3天内无条件退款

 圈里有高质量教程资料、可答疑解惑、助你高效解决问题

欢迎加入我们公众号读者群一起和同行交流,目前有3D视觉CV&深度学习SLAM三维重建点云后处理自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。

▲长按加群或投稿

你可能感兴趣的:(CVPR 2020 | CentripetalNet:目标检测新网络,COCO 48 % AP超现所有Anchor-free网络)