CVPR 2020 | 港中文提出3D目标检测新框架DSGN

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第1张图片

©PaperWeekly 原创 · 作者|张承灏

学校|中科院自动化所硕士生

研究方向|双目深度估计

本文介绍的是香港中文大学贾佳亚团队在 CVPR 2020 上提出的 3D 目标检测新框架——深度立体几何网络(Deep Stereo Geometry Network,DSGN)。

通过构造一种可导的 3D 几何体来实现 3D 目标检测,从而减小了基于图像的方法和基于 LiDAR 的方法之间的鸿沟。这是第一个一阶段的,基于双目的 3D 目标检测器,在 KITTI 3D 目标检测榜单上超越以往基于双目的 3D 目标检测方法。

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第2张图片

论文标题:DSGN: Deep Stereo Geometry Network for 3D Object Detection

论文地址:https://arxiv.org/abs/2001.03398

开源代码:https://github.com/chenyilun95/DSGN

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第3张图片

背景

根据特征的表示方法不同,3D 目标检测器主要分为基于图像的 3D 检测器和基于 LiDAR 的 3D 检测器。

  • 基于 LiRAD 的 3D 检测器:主要分为基于体素的方法和基于点云的方法;

  • 基于图像的 3D 检测器:主要分为基于深度估计的方法和基于 3D 特征的方法;

由于 LiDAR 传感器能够捕捉准确的 3D 信息,因此基于 LiDAR 的 3D 检测器准确率较高。其不足之处在于 LiDAR 设备笨重且价格昂贵,得到是带有激光束的稀疏分辨率的数据。

相比之下,视频摄像机要便宜很多,并且能够产生更加稠密的分辨率。这种基于图像的方法通常依靠单目或者双目深度估计,但是准确率仍然无法与基于 LiDAR 的方法相媲美。

基于深度估计的方法将 3D 目标检测分为两步:深度估计和目标检测,这其中最大的挑战在于 2D 网络并不能提取到稳定的 3D 信息。

另一种方案是先利用深度估计产生中间伪点云,再利用基于 LiDAR 的 3D 目标检测方法。但是这种方法中的变换是不可导的,并且需要多个独立的网络,还容易出现失真现象。

DSGN 是一种基于双目深度估计的,端到端的 3D 目标检测框架,其核心在于通过空间变换将 2D 特征转换成有效的 3D 结构。论文的主要贡献如下:

  • 为了弥补 2D 图像和 3D 空间的鸿沟,作者利用立体匹配构建平面扫描体(plane-sweep volume,PSV),并将其转换成 3D 几何体(3D geometric volume,3DGV),以便能够编码 3D 几何形状和语义信息。

  • 作者设计了一个端到端的框架,以提取用于立体匹配的像素级特征和用于目标识别的高级特征。所提出的 DSGN 能同时估计场景深度并检测 3D 目标,从而实现多种实际应用。

  • 作者提出的简单且完全可导的网络在 KITTI 排行榜上超越所有其他基于双目深度估计的 3D 目标检测器(AP 高出 10 个点)。

方法

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第4张图片

上图展示了 DSGN 的整体框架图。将双目图像对 作为输入,利用权重共享的孪生网络提取特征,并构建一个平面扫描体(PSV),它可以学习逐像素的对应关系。

接着通过可导的 warping 操作,将 PSV 转换为 3D 几何体(3DGV),从而构建 3D 世界坐标系的 3D 几何特征。最后利用 3D 卷积网络作用于 3DGV 进行 3D 目标检测。

2.1 特征提取

作者借鉴 PSMNet [1] 的特征提取器作为深度估计和 3D 目标检测的共享特征提取网络。为了提取更多的高层次特征,并且减少计算量,主要进行了以下改动:

  1. 将更多的计算从 conv_3 转到 conv_4 和 conv_5,比如从 conv_2 到 conv_5 的基本模块的通道数从 {3,16,3,3} 变成 {3,6,12,4}。

  2. PSMNet 中的 SPP 模块增加了 conv_4 和 conv_5。

  3. conv_1 的输出通道数和残差模块的输出通道数有所改变。

详细的网络结构可参考论文中的附录部分。

2.2 构建3DGV

论文的核心是如何构建带有 3D 几何特征的 3DGV,它是由 PSV 经过 warping 操作转换得到。3DGV 可以看做是 3D 世界坐标系的 3D 体素网格,它的大小是 ,分别沿摄像机视角的右方,下方和前方。每个体素的大小是

2.3 Plane-Sweep Volume

在双目立体匹配中,一对左右图像 用来构造基于视差的匹配代价体(cost volume),它计算了左右图像的像素点在水平方向上的位移是视差 的匹配代价。

根据基于 cost volume 的立体匹配方法,连接左右图特征构造 PSV,它的坐标表示为 ,其中 表示图像上在该位置的像素点, 表示垂直于图像平面的深度信息。那么 空间可以被称为相机坐标系

之后利用 3D Hourglass 网络进行代价聚合。对于视差/深度估计,利用可导的 soft argmin 操作来计算所有概率为   的深度候选值的期望:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第5张图片

其中深度的候选值在间隔为 的预定义网格(即 )内均匀采样。再利用 softmax 函数使得模型为每个像素点只选择一个深度值,从而完成深度估计。

2.4 3D Geometric Volume

有了照相机坐标,在已知摄像机内参的情况下,可以利用相机投影矩阵 实现从世界坐标系到相机坐标系的转换。假设世界坐标系表示为 ,而前面的相机坐标表示为 ,经典的转换方法是从世界坐标系到相机坐标系:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第6张图片

而现在PSV的最后一层特征作为已知的相机坐标系,要想得到世界坐标系,因此需要使用相机投影矩阵的逆矩阵

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第7张图片

其中 分别是水平方向和竖直方向的焦距, 是相机位姿参数。该操作是完全可导的,可以利用三线性差值的 warp 操作实现。

2.5 3D目标检测器

对于 3D 目标检测网络部分,作者借鉴 anchor-free 的方法 FCOS [2] 中的centerness思想,设计了一种基于距离的策略来分配目标,同时也继续保持anchor。

具体来说,令 3DGV 中的特征图大小为 ,经过逐步下采样操作,得到用于鸟瞰视角的特征图 ,其大小为

对于 中的每一个位置 ,放置几个不同方向和大小的anchor。假设anchors用 表示,而GT目标框用 表示,那么它们的位置,预设大小和方向定义如下:

  • Anchors:

  • GT:

  • 预测值:

其中 是 anchor 方向的数量, 是每个参数学习的偏置。

沿用 FCOS 中的 centerness 思想,作者利用 anchor 和 GT 在 8 个角上的坐标距离作为目标分配的策略:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第8张图片

将与 GT 最近的 N 个样本作为正样本,其中 是 GT 中体素的个数,而 用来调整正样本的个数。最终的 centerness 定义如下:

其中的范数表示最小-最大归一化。

2.6 多任务训练

DSGN 的整个网络同时进行双目深度估计和 3D 目标检测,因此是一个多任务训练过程,整体 loss 如下:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第9张图片

对于深度估计,采用 smooth L1 loss, 是 GT 中的有效像素点,

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第10张图片

对于 3D 目标检测的分类任务,采用 focal loss 避免样本不平衡的缺陷, 是正样本的个数,对于 centerness 采用 BCE loss。

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第11张图片

对于 3D 目标检测的回归任务,采用 smooth L1 loss 进行回归,

实验

作者在 KITTI 3D 目标检测数据集上进行实验评测,该数据集包含 7481 张训练图像对和 7518 张测试图像对,分为 Car, Pedestrian 和 Cyclist 三种类型。下面是在测试集上的主要结果:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第12张图片

从表中可以看出,对于 3D 和 BEV(Bird's Eye View)目标检测,DSGN 超越了所有基于图像的 3D 目标检测器;在 2D 检测上,也仅仅比 3DOP 要差一点。

值得一提的是,DSGN 首次得到了与基于 LiDAR 的目标检测器 MV3D 相当的准确率,该结果证明至少在低速自动驾驶条件下是有应用前景的。这些都验证了 3DGV 的有效性,表明 3DGV 构建了 2D 图像和 3D 空间的桥梁。

作者将训练集分成一半训练集,一半验证集进行消融分析,下面是消融实验的结果:

CVPR 2020 | 港中文提出3D目标检测新框架DSGN_第13张图片

从上表中可以得到以下几个结论:

  • 点云的监督是很重要的。有点云监督的结果要大大优于没有监督的情况。

  • 在有点云监督的情况下,基于双目的方法要远远优于基于单目的方法。再次证明仅仅有 3D 检测框的监督信息是不充分的,基于双目的深度信息对于 3D 检测相当重要。

  • PSV 对于 3D 结构是一种更合适的特征表示。PSCV 相比于 CV 的不同在于从相机坐标系到世界坐标系的转换,对于 3D 检测 AP 从 45.89 提升到 54.27。

  • PSV 作为一种中间编码方式能更有效地包含深度信息,因为它是深度估计网络的中间特征。

讨论和总结

Stereo RCNN [3] 是 CVPR 2019 的 3D 目标检测器,它是通过扩展 Faster RCNN,以双目图像作为输入的端到端 3D 检测器。我们可以通过比较 DSGN 和 Stereo RCNN 的不同之处来更好的理解 DSGN。

  • DSGN 是 one-stage 的目标检测器,而 Stereo RCNN 是 two-stage 的。

  • DSGN 利用了深度点云信息作为深度估计网络的监督,从而实现深度估计和3D目标检测的多任务学习,而 Stereo RCNN 仅有 3D 检测框的监督信息。这种点云监督信息使得DSGN中的 PSV 成为更好的特征表示,这可能是 DSGN 性能大大提升的根本所在。

  • 从目标检测的角度看,二者都采用了 anchor,不过 DSGN 借鉴了 anchor-free 的 centerness 思想,使得检测性能更优。

参考文献

[1] Jia-Ren Chang and Yong-Sheng Chen. Pyramid stereo matching network. In CVPR, pages 5410–5418, 2018. 

[2] Zhi Tian, Chunhua Shen, Hao Chen, and Tong He. Fcos: Fully convolutional one-stage object detection. 2019. 

[3] Peiliang Li, Xiaozhi Chen, and Shaojie Shen. Stereo r-cnn based 3d object detection for autonomous driving. In CVPR, pages 7644–7652, 2019.

点击以下标题查看更多往期内容: 

  • 变分推断(Variational Inference)最新进展简述

  • 变分自编码器VAE:原来是这么一回事

  • 图神经网络三剑客:GCN、GAT与GraphSAGE

  • 如何快速理解马尔科夫链蒙特卡洛法?

  • 深度学习预训练模型可解释性概览

  • ICLR 2020:从去噪自编码器到生成模型

#投 稿 通 道#

 让你的论文被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。

???? 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志

???? 投稿邮箱:

• 投稿邮箱:[email protected] 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

你可能感兴趣的:(CVPR 2020 | 港中文提出3D目标检测新框架DSGN)