论文:https://arxiv.org/abs/1907.12046
重要性: 神经单元的感受野描述了影响其输出值的输入数据区域。感受野之外的所有输入数据均不影响输出。因此,大的感受野很重要,因为它们可以在较大的输入上下文中进行推理。
困难: 由于3D点云的结构不均匀,因此难以计算接收场的理论大小,因此该研究尤其具有挑战性。
分析: 可视化感受野以分析不同的网络体系结构,进行全面的消融研究,比较几种增加点卷积感受野的策略。
通过观察所得感受野的程度,注意到它们的影响仍然相当有限。
改进: 基于这些观察,论文提出了Dilated Point Convolutions作为一种显着增加点卷积的感受野大小的方法。
贡献:
大同小异,故不重复赘述。
A. Point Convolutions
点卷积可以使用D维空间中连续卷积的一般定义来表述。连续卷积定义为:
( f ∗ g ) ( p i ) = ∫ − ∞ + ∞ f ( p j ) ⊙ g ( p i − p j ) d p j − − − − − ( 1 ) (f\ast g)(p_{i})=\int_{- \infty}^{+ \infty}f(p_{j})\odot g(p_{i}-p_{j})dp_{j}-----(1) (f∗g)(pi)=∫−∞+∞f(pj)⊙g(pi−pj)dpj−−−−−(1)
注释:
在大多数实际应用中,例如在重建3D点云时,特征函数 f f f尚不完全清楚,因为只有有限数量的N个点位置 p n p_n pn被观察到,甚至被占据。使用蒙特卡洛积分,连续卷积可以近似为:
( f ∗ g ) ( p i ) ≈ 1 N ∑ n = 1 N f ( p n ) ⊙ g ( p i − p n ) − − − − − ( 2 ) (f\ast g)(p_{i})\approx \frac{1}{N}\sum_{n=1}^{N}f(p_{n})\odot g(p_{i}-p_{n})-----(2) (f∗g)(pi)≈N1n=1∑Nf(pn)⊙g(pi−pn)−−−−−(2)
基于多层感知器(MLP)将内核函数 g(·) 实现为学习的参数函数:
g ( p ; θ ) = M L P ( p ; θ ) − − − − − − − − − ( 3 ) g(p;\theta)= MLP(p;\theta)---------(3) g(p;θ)=MLP(p;θ)−−−−−−−−−(3)
注释:
为了提取高频信号,重要的是定义局部核。在2D图像CNN中,这是通过3×3或5×5像素内核实现的。对于点卷积,可以通过限制局部内核支持的基数来实现此效果,即通过在每个点 p i p_i pi周围定义局部邻域 N i N_i Ni。
( f ∗ g ) ( p i ) ≈ 1 ∣ N i ∣ ∑ p k ∈ N i f ( p k ) ⊙ g ( p i − p k ) − − − − − ( 4 ) (f\ast g)(p_{i})\approx \frac{1}{\left | N_{i}\right |}\sum_{p_{k}\in N_{i}}f(p_{k})\odot g(p_{i}-p_{k})-----(4) (f∗g)(pi)≈∣Ni∣1pk∈Ni∑f(pk)⊙g(pi−pk)−−−−−(4)
目前很多方法都使用了连续卷积的上述定义。
增加接收场大小的常用方法:
Dilated Point Convolutions.
现状: 使用前面提到的方法,接收场大小仍然受到限制,如图4的前3行。
改进: 论文提出了扩张点卷积(DPC)作为增加接收场大小的一种有效机制。
细节:
DPCs等于点卷积(PC),但是它们在选择相邻点的方式上有所不同:虽然PC直接使用k个最近邻居,但DPC首先计算k·d个最近邻居,然后选择每个第d个邻居,见图2(右)。
注意,对于d = 1,DPC与PC相同。扩张会导致感受野的大小显着增加(见图4)。但是,参数的数量保持不变。需要计算的更大数量的k·d邻居增加了sublinear计算开销。见表IV。
如果本地内核邻域N来自最近邻搜索,则可以将DPC直接添加到现有的大多数卷积网络中,而只需进行最小的修改即可。
Model Architecture.
A. 3D Semantic Segmentation
通常,一旦感受野的大小超过训练物的大小,小的训练物就会阻碍网络从更大的环境中学习。点被采样而不替换,如果少于4092点,使用零填充。
C. Ablation Study
主要分析超参数:点卷积层的数量,最近的邻居k和扩张因子d
Depth and Number of Neighbors k:
表释:
表释:
Model Size:
由于内核函数 g( p) 是在相对点位置p上定义的,因此可训练参数的数量与邻点的数量k(因此与膨胀因子d)无关。这样,增加邻居数k(或膨胀因子dd)会增加感受野,而不会增加模型大小。