[论文翻译]CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D Point Cloud Understanding

原文地址:CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D Point Cloud Understanding

Abstract

点云结构不规则,对于不同任务(如三维目标分类、分割和检测)的大型点云数据,人工标注往往是非常困难的。自我监督不需要任何手工标注,是解决这个问题的好方法。受人眼能够从2D图像理解3D世界的启发,我们提出CrossPoint,一种跨模态的对比学习方法来学习可转换的3D点云表示。它能在不变空间中(invariant space),最大化2D-3D的一致性,同时支持点云模式中的置换不变性(invariance to transformations),实现物体的3D- 2D对应。我们即训练了内模式的特征提取,也训练了对应的跨模式的特征提取,因此,以自监督的方式从3D点云和2D图像形态中集成丰富的学习信号。实验结果表明,在包括3D对象分类和分割在内的多种下游任务上,我们的方法比以往的无监督学习方法具有更好的性能。此外,消融研究验证了我们的方法对于更好地理解点云的有效性。

1. Introduction

3D视觉在自动驾驶、混合现实和机器人等应用中至关重要,由于其理解人类世界的能力而引起了广泛的关注。有鉴于此,近年来在三维视觉研究问题上有大量的工作,如物体分类[42,43,60],检测[36]和分割[43,54,60],点云是最常用的三维数据表示方法。然而,深度学习的成功至关重要地依赖于大规模的人工数据。尽管三维传感技术(如激光雷达)的进步促进了三维点云样本的广泛采集,但由于点云的结构不规则,手动注释这种大规模的三维点云数据集是非常困难的(-问题-)自监督学习是解决这一问题的主要方法之一,已被证明在2D域中有效[5,7,15,38]。一些工作已经探索了点云上的自监督表示学习,主要基于生成模型[1,62]、重构[51,58]和其他预文本任务[40]。此外,随着对比学习在图像[7,15,20,37]和视频[22,44,59]理解方面的成功发展,最近的工作也研究了用于点云理解的自我监督对比学习[23,49,64,73]的方法。然而,现有的基于对比学习的点云理解方法仅依赖于对三维点云的增强施加不变性(imposing invariance to augmentations of 3D point clouds)。像跨模式学习(cross-modal learning)这样从不同形式的学习,在自我监督学习中产生了实质性的效果。视觉+语言[10,45,50]和视频+音频[3,38,39]是多模式学习的一些值得注意的组合。在诸如物体检测[26]、少样本图像分类[2,65]和视觉问答[24,61]等各种2D视觉任务中采用了多模式设置。受多模态学习进展的启发,我们提出了CrossPoint,一种简单而有效的用于三维点云理解的跨模态对比学习方法。

我们工作的目标是捕捉3D对象和2D图像之间的对应关系,以学习可转移的点云表示(learn transferable point cloud representations.)。如图1所示,我们将增强后的点云和相应的渲染后的二维图像紧密地嵌入到特征空间中。在现实世界中,人类善于利用从二维图像中学到的视觉概念来理解三维世界。例如,如果一个人通过图像观察这个物体,他可以很容易地识别一个物体,认知科学家认为,3D-2D通信是儿童视觉学习过程的一部分[9,48]。同样,在机器人和自动驾驶等真实世界应用中,模型能够感知这种3D- 2d通信将极大地促进对3D世界的有效理解。特别是,我们的方法遵循一个联合目标,即在特征空间中紧密嵌入同一点云的增强版本,同时保持它们与原始3D点云渲染的2D图像之间的3D-2D对应关系。

联合的内模态和跨模态学习目标使模型获得以下可取有属性:
(a)关联点云和图像模态中出现的组成模式,例如,物体的细粒度部分级属性;(b)通过增加不变性获得点云的空间和语义属性知识;©将重定向后的二维图像特征作为质心编码到增强的点云特征,从而促进3D-2D对应转换。此外,像SimCLR[7]一样,CrossPoint的负采样不而要内存(memory bank)。丰富的增强和正例样本的形成,尽管需要有记忆库,也已被证明能促进对比学习[25,77]。我们假设,在模态内设置和跨情态对应中使用的转换提供了足够的特征增强。具体地说,渲染的2D图像特征对形成更好的表征学习起到了硬肯定的作用。

我们用多个下游任务验证了该方法的泛化能力。具体来说,我们在合成[63]和真实世界[57]对象数据集中执行形状分类。尽管在一个合成目标数据集[6]上进行了预训练,但在非分布数据中CrossPoint的性能证明了联合学习目标的重要性。此外,消融研究还证明了模式内目标和跨模式目标在成分上的贡献。我们还采用了多个广泛使用的点云网络作为我们的特征提取方法,从而证明了我们方法的通用性。

我们的方法的主要贡献可以概括如下:

  • 结果表明,利用自监督对比学习在特征空间中对目标进行简单的3D-2D对应有助于有效地理解三维点云。
  • 我们提出了一种新颖的端到端自监督学习目标,该目标封装了内模态和跨模态损失函数。它鼓励二维图像特征嵌入到相应的三维点云原型附近,从而避免偏向于特定的增强。
  • 我们在三个下游任务上广泛评估了我们提出的方法,即:对象分类、样本头学习和在不同范围的合成和真实数据集上的部分分割,其中CrossPoint优于以前的无监督学习方法。
  • 此外,我们对CIFAR-FS数据集进行少样本图像分类,以证明从交叉点微调预训练的图像骨干优于标准基线。

2. Related Work

关于点云的表示学习。 与其他形式(例如图像)相比,学习点云表示是一项具有挑战性的任务。这是因为每个点的结构是不规则的,而且在处理每个点时需要有置换不变性。最近由PointNet[42]开创的一系列工作提出了直接作用于3D点云而不进行任何预处理的方法的体系结构。

点云上的自监督学习。 已经探索了几种在点云上执行自监督表示学习的方法。最初的工作利用生成性对抗性网络[1,17,62]和自动编码器[12,18,29,70,76]的生成性建模,其目的是用不同的架构设计重建给定的输入点云。最近的系列著作[19,40,46,51,53,58,69]介绍了各种pretext self-supervision tasks,目的是学习丰富的语义点属性,最终导致高水平的判别性知识。例如Wang et al.[58]训练一个编码器-解码器模型来完成被遮挡的点云,Poursaeed et al.[40]将点云旋转角度的估计定义为pretext task。然而,在这项工作中,我们利用对比学习[16]来学习特征空间中的不变映射。受图像理解的自我监督对比学习的成功启发,许多著作[11,23,32,49,64,72,73]分析了点云理解的这种场景。PointContrast[64]对给定点云的两个变换后的视图执行点级别的不变映射。类似地,Liu等人[32]也分析了一种点级不变映射,通过引入点识别损失,使特征与属于形状表面的点一致,而与随机采样的噪声点不一致。STRL[23]是BYOL[15]对3D点云的直接扩展,通过在线网络和目标网络的交互,无监督地学习表示。与现有的利用对比学习的研究形成对比,我们引入了一种辅助的跨模态对比目标,它能捕获3D-2D对应,从而产生更好的表示能力。

Cross-Modal Learning. 从不同模态中学习往往能提供丰富的学习信号,从这些信号中可以很容易地处理给定上下文的语义信息。最近的研究[3,10,38,45,50,55]指出,跨模式环境下的预训练产生了可转移的表征,这些表征随后可用于各种下游任务。Zhang等人[73]提出了一种点云和体素的联合学习方法。然而,我们认为2D图像产生的正样本比3D体素更难分辨,因此提供了更丰富的学习信号。此外,[66]通过滤波器膨胀将预训练的二维图像模型转换为点云模型,而[13]通过将图像特征中观察到的对应关系转换为点云特征来处理点云配准任务。我们的工作与现有的工作[34]密切相关,它使用一个固定的图像特征提取器来进行像素到点的(知识)转移,然而,我们新的联合学习目标在不变空间中实现了内模态和跨模态的全局特征对应,这对更好地识别对象至关重要。

3. Proposed Method

在这项工作中我们将融合内模态和跨模态对比学习目标来改进无监督三维点云表示学习。本节首先介绍所提方法的网络架构细节(第3.1节)。然后,我们将描述在模内(第3.2节)和跨模态(第3.3节)设置中形成的对比学习损失函数。最后,我们介绍我们的整体培训目标(第3.4节)。所提方法的概述如图2所示。此后,基于点云的任务取得了许多进展,如三维对象分类[31,33,43,54,60,67,75]、三维对象检测[31,36,41,74]和三维点云合成[1,62]。此外,还提出了几种数据增强策略[8,27,30],以增强模型的表示能力,而不考虑使用的骨干。然而,这种表示学习方法的性能取决于标注的点云数据,而标注的点云数据是很难获得的。Sharma等人[52]介绍了cTree,其中点云表示可以在标签有效的场景中学习(例如少样本学习)。相反,我们的方法专注于学习可转移的点云表示,而不利用任何注释,然后可以用于各种下游任务,如分类和分割。

3.1 Preliminaries

假设我们得到一个数据集,
D = { ( P i , I i ) } i = 1 ∣ D ∣ \mathcal{D}=\left\{\left(\mathbf{P}_{i}, \mathbf{I}_{i}\right)\right\}_{i=1}^{|\mathcal{D}|} D={(Pi,Ii)}i=1D
其中 P i ∈ R N × 3 \mathbf{P}_{i} \in \mathbb{R}^{N \times 3} PiRN×3 I i ∈ R H × W × 3 \mathbf{I}_{i} \in \mathbb{R}^{H \times W \times 3} IiRH×W×3, I i \mathbf{I}_{i} Ii是3D点云 P i \mathbf{P}_{i} Pi的二维渲染图像。请注意, I i \mathbf{I}_{i} Ii是通过从随机摄像机视点捕捉 P i \mathbf{P}_{i} Pi[6]来获得的。我们的目标是以自我监督的方式训练点云特征提取器 f θ P ( . ) f_{\theta_{\mathbf{P}}}(.) fθP(.),使其能够有效地转移到下游任务。为此,我们分别对点云和图像使用图像特征提取器 f θ P ( . ) f_{\theta_{\mathbf{P}}}(.) fθP(.),多层感知器(MLP)投影头(MLP projection heads) g ϕ P ( . ) g_{\phi_{\mathbf{P}}}(.) gϕP(.) g ϕ I ( . ) g_{\phi_{\mathbf{I}}}(.) gϕI(.)

3.2 Intra-Modal Instance Discrimination

受图像模态对比前训练成功的启发[7,20,37],我们提出了一种模内实例判别(Intra-Modal Instance Discrimination, IMID),通过执行自监督对比学习来增强一组点云几何变换 T \mathbf{T} T的不变性。给出一个输入的三维点云 P i \mathbf{P}_{i} Pi,我们构造它的增广版本 P i t 1 \mathbf{P}_{i}^{t_{1}} Pit1 P i t 2 \mathbf{P}_{i}^{t_{2}} Pit2。我们以顺序的方式随机组合来自T的变换来合成 t 1 t_{1} t1 t 2 t_{2} t2。我们使用旋转、缩放和平移等变换。除此之外,我们还利用了抖动、归一化和弹性变形等空间变换。不管增强效果如何,对应变换矩阵的参数都是随机初始化的。

点云特征提到器 f θ P f_{\theta_{\mathbf{P}}} fθP P i t 1 \mathbf{P}_{i}^{t_{1}} Pit1 P i t 2 \mathbf{P}_{i}^{t_{2}} Pit2映射到特征嵌入空间(feature embedding space),使用投影头(projection head ) g ϕ P )g_{\phi_{\mathbf{P}}} )gϕP将得到的特征向量投影到不变空间(invariant space) R d \mathbb{R}^{d} Rd,这个空间应用了对比损失。我们将通过 P i t 1 \mathbf{P}_{i}^{t_{1}} Pit1 P i t 2 \mathbf{P}_{i}^{t_{2}} Pit2得到的投影向量分别称为 z i t 2 \mathbf{z}_{i}^{t_{2}} zit2 z i t 2 \mathbf{z}_{i}^{t_{2}} zit2,因此 z i t = g ϕ P ( f θ P ( P i t ) ) \mathbf{z}_{i}^{t}=g_{\phi_{\mathbf{P}}}\left(f_{\theta_{\mathbf{P}}}\left(\mathbf{P}_{i}^{t}\right)\right) zit=gϕP(fθP(Pit))。我们的目标是使 z i t 2 \mathbf{z}_{i}^{t_{2}} zit2 z i t 2 \mathbf{z}_{i}^{t_{2}} zit2同一对象的两种扩充)的相似性最大,同时与该批次中其它对象的投影的相似性最小。在这个阶段,我们利用SimCLR[7]中提出的NT-Xent损失进行分类。注意,我们的方法没有使用任何记忆库(memory bank),这是自监督对比学习的最新进展[5,15,23]。我们的模态内实例判别损失函数 L i m i d \mathcal{L}_{i m i d} Limid可以描述为:
L i m i d ( i ) = − log ⁡ exp ⁡ ( s ( z i t 1 , z i t 2 ) / τ ) exp ⁡ ( s ( z i t 1 , z i t 2 ) / τ ) + ∑ k = 1 2 N − 1 exp ⁡ ( s ( z k t 1 , z k t 2 ) / τ ) ( 1 ) \mathcal{L}_{i m i d}(i)=-\log \frac{\exp \left(s\left(\mathbf{z}_{i}^{t_{1}}, \mathbf{z}_{i}^{t_{2}}\right) / \tau\right)}{\exp \left(s\left(\mathbf{z}_{i}^{t_{1}}, \mathbf{z}_{i}^{t_{2}}\right) / \tau\right)+\sum_{k=1}^{2 N-1} \exp \left(s\left(\mathbf{z}_{k}^{t_{1}}, \mathbf{z}_{k}^{t_{2}}\right) / \tau\right)} (1) Limid(i)=logexp(s(zit1,zit2)/τ)+k=12N1exp(s(zkt1,zkt2)/τ)exp(s(zit1,zit2)/τ)1

其中, N \mathbf{N} N τ \mathcal{τ} τ s ( . ) s(.) s(.)分别为小批量函数、温度系数函数和相似函数。我们使用余弦相似度作为我们的相似函数。

3.3 Cross-Model Instance Discrimination

除了点云模式内的特征对齐外,我们还引入了一个跨点云和图像模式的辅助对比目标来学习鉴别特征,从而产生更好的三维点云表示学习能力。正如第2节所讨论的,一些工作的目的是在跨模式场景中学习可转移点云表示。然而,据我们所知,在点云模式内执行实例判别的同时,加强3D-2D通信的联合学习目标还没有得到很好的探索。我们通过第4.2节的实验结果验证了我们的联合目标优于现有的无监督表示方法,从而促进了三维点云的有效表示学习。

为此,我们首先利用视觉骨干 f θ f_{\theta} fθ P i \mathbf{P}_{i} Pi的渲染二维图像 I i \mathbf{I}_{i} Ii嵌入到特征空间。我们选择常用的ResNet[21]结构作为 f θ f_{\theta} fθ。然后利用图像投影头 g ϕ I g_{\phi_{\mathbf{I}}} gϕI将特征向量投影到不变空间 R d \mathbb{R}^{d} Rd。图像的投影特征定义为 h i \mathbf{h}_{i} hi,其中 h i = g ϕ I ( f θ I ( I i ) ) \mathbf{h}_{i}=g_{\phi_{\mathbf{I}}}\left(f_{\theta_{\mathbf{I}}}\left(\mathbf{I}_{i}\right)\right) hi=gϕI(fθI(Ii))。与以前的跨模态方法[38,73]相比,我们没有对两种模态(点云和图像)都显式地进行IMID。相反,我们在点云上用了IMID,并利用图像模态来更好地理解点云。我们提出了一个学习目标,与图像理解相比,它对3D点云理解引入了偏置。为此,我们计算投影向量 z i t 1 \mathbf{z}_{i}^{t_{1}} zit1 z i t 2 \mathbf{z}_{i}^{t_{2}} zit2的均值,得到 P i \mathbf{P}_{i} Pi的投影原型向量 z i \mathbf{z}_{i} zi
z i = 1 2 ( z i t 1 + z i t 2 ) ( 2 ) \mathbf{z}_{i}=\frac{1}{2}\left(\mathbf{z}_{i}^{t_{1}}+\mathbf{z}_{i}^{t_{2}}\right) (2) zi=21(zit1+zit2)(2)

在不变空间中,我们的目标是最大化 z i \mathbf{z}_{i} zi h i \mathbf{h}_{i} hi的相似性,因为它们都对应于相同的对象。我们的跨模态对比强了模型从更难的正样本和负样本中学习的能力,从而比仅从模式内对比学习增强了表示能力。损失函数 L c m i d \mathcal{L}_{c m i d} Lcmid表示为:
L c m i d ( i ) = − log ⁡ exp ⁡ ( s ( z i , h i ) / τ ) exp ⁡ ( s ( z i , h i ) / τ ) + ∑ k = 1 2 N − 1 exp ⁡ ( s ( z k , h k ) / τ ) ( 3 ) \mathcal{L}_{c m i d}(i)=-\log \frac{\exp \left(s\left(\mathbf{z}_{i}, \mathbf{h}_{i}\right) / \tau\right)}{\exp \left(s\left(\mathbf{z}_{i}, \mathbf{h}_{i}\right) / \tau\right)+\sum_{k=1}^{2 N-1} \exp \left(s\left(\mathbf{z}_{k}, \mathbf{h}_{k}\right) / \tau\right)} (3) Lcmid(i)=logexp(s(zi,hi)/τ)+k=12N1exp(s(zk,hk)/τ)exp(s(zi,hi)/τ)(3)

其中,s、N和τ指的是与公式1中相同的参数。

3.4 Overall Objective

最后,我们将 L i m i d \mathcal{L}_{i m i d} Limid L c m i d \mathcal{L}_{c m i d} Lcmid相结合,得到训练过程中的损失函数,其中 L i m i d \mathcal{L}_{i m i d} Limid对点云变换施加不变性,而 L c m i d \mathcal{L}_{c m i d} Lcmid则注入3D-2D对应。
L = L i m i d + L c m i d ( 4 ) \mathcal{L}=\mathcal{L}_{i m i d}+\mathcal{L}_{c m i d} (4) L=Limid+Lcmid(4)

你可能感兴趣的:(计算机视觉,深度学习)