【论文笔记】:CenterNet :Objects as Points

&Title:

  • Objects as Points

&Summary

作者在构建模型时将目标作为一个点——即目标BBox的中心点。检测器采用关键点估计来找到中心点,并回归到其他目标属性,例如尺寸,3D位置,方向,甚至姿态。

论文是基于中心点的方法,称为:CenterNet,相比较于基于BBox的检测器,我们的模型是端到端可微的,更简单,更快,更精确。我们的模型实现了速度和精确的最好权衡,以下是其性能:

MS COCO dataset, with 28:1% AP at 142 FPS, 37:4% AP at 52 FPS, and 45:1% AP with multi-scale testing at 1.4 FPS.

用同个模型在KITTI benchmark 做3D bbox,在COCO keypoint dataset做人体姿态检测。同复杂的多阶段方法比较,我们的取得了有竞争力的结果,而且做到了实时的。

&Research Objective

用关键点估计来找到中心点,并回归到其他目标属性,例如尺寸,3D位置,方向,甚至姿态。

&Problem Statement

目标检测识别往往在图像上将目标以轴对称的框形式框出。大多成功的目标检测器都先穷举出潜在目标位置,然后对该位置进行分类,这种做法浪费时间,低效,还需要额外的后处理。

&Method(s)

本文中,我们采用不同的方法,构建模型时将目标作为一个点——即目标BBox的中心点。我们的检测器采用关键点估计来找到中心点,并回归到其他目标属性,例如尺寸,3D位置,方向,甚至姿态。我们基于中心点的方法,称为:CenterNet,相比较于基于BBox的检测器,我们的模型是端到端可微的,更简单,更快,更精确。

&Evaluation

关于论文中的详细解释,包括:使用的网络、使用的前提条件、损失函数、目标中心的偏置损失等详细内容解读,请看以下两篇大佬文章:

  • 扔掉anchor!真正的CenterNet——Objects as Points论文解读(知乎)
  • 论文精读——CenterNet :Objects as Points

&Conclusion

用原文的结论:
文章提出了一个新的对象表示:关键点。 我们的CenterNet对象检测器建立在成功的关键点估计网络,查找对象中心和回归到他们的大小。 该算法简单,快速,准确,端到端可区分,无需任何NMS后处理。 这个想法很普遍,应用广泛超越简单的二维检测。 CenterNet可以估计一系列其他对象属性,例如姿势,3D方向,深度和范围,在一个单向前传。 我们最初的实验令人鼓舞为实时物体识别开辟了新方向相关任务。

In summary, we present a new representation for objects:as points. Our CenterNet object detector builds on successful keypoint estimation networks, finds object centers, and regresses to their size. The algorithm is simple, fast, accurate, and end-to-end differentiable without any NMS postprocessing. The idea is general and has broad applications beyond simple two-dimensional detection. CenterNet can estimate a range of additional object properties, such as pose, 3D orientation, depth and extent, in one single forward pass. Our initial experiments are encouraging and open up a new direction for real-time object recognition and related tasks.

&Notes

创新点:

  • 我们分配的锚点仅仅是放在位置上,没有尺寸框。没有手动设置的阈值做前后景分类。(像Faster RCNN会将与GT IOU >0.7的作为前景,<0.3的作为背景,其他不管);
  • 每个目标仅仅有一个正的锚点,因此不会用到NMS,我们提取关键点特征图上局部峰值点local peaks);
  • CenterNet 相比较传统目标检测而言(缩放16倍尺度),使用更大分辨率的输出特征图(缩放了4倍),因此无需用到多重特征图锚点; 对物体的中心点位置进行预测,同时预测物体的大小。

特点:

CenterNet相比于之前的one-stagetwo-stage的目标检测有什么特点?

  • CenterNet的“anchor”仅仅会出现在当前目标的位置处而不是整张图上撒,所以也没有所谓的box overlap大于多少多少的算positive anchor这一说,也不需要区分这个anchor是物体还是背景 -因为每个目标只对应一个“anchor”,这个anchor是从heatmap中提取出来的,所以不需要NMS再进行来筛选
  • CenterNet的输出分辨率的下采样因子是4,比起其他的目标检测框架算是比较小的(Mask-Rcnn最小为16、SSD为最小为16)。

总体来说,CenterNet结构优雅简单,直接检测目标的中心点和大小,是真anchor-free。

你可能感兴趣的:(#,Anchor-free,目标检测,Object,as,Points,anchor-free)