KPConv阅读

点云MLP卷积的中间表示

本质是用1*1的卷积核去卷积,多少个通道就含有多少个卷积核,每个卷积核都是权值共享的,将会遍历整个点云。

基于显式卷积核的表示(类似于图像卷积核的表示)

设计显式卷积核的方法的优点是可以考虑吧更多的局部集合结构,逐点MLP的方法只是1*1的卷积,而显式卷积核的方法则是多个点组成的一块区域来学习。

KPConv阅读_第1张图片

KPConv阅读_第2张图片

 g是卷积核参数,xi是x邻域的点,fi为xi的特征向量。

函数g具有一致的球形邻域,某一半径之内邻域选择。

KPConv阅读_第3张图片

 g卷积函数的具体表示

当核点Xk距离Yi越近时,相应的权重会越大(本人理解是当差距更小时,需要放大权重,来使结果拟合更加精确;差距较大时,需要缩小权重,来使结果变化平稳;类似于pointconv中逆密度加权的方法)

KPConv阅读_第4张图片

卷积核形状的学习

KPConv阅读_第5张图片

KPConv阅读_第6张图片

KPConv阅读_第7张图片

 经过学习,得到了刚性的模型,是正四面体形状。

刚性模型对于小规模点云效果更好一些。

(为什么进行形状的学习)

在空间上是连续的,并且可以由网络获知。因此,可以扩展KPConv变形卷积,学习使kernel points适应局部几何形状。

(如何架构的网络层)

一样

KPConv阅读_第8张图片

(如何一步步提高的感受野)

也是卷积提升感受野,局部邻域聚合起来

(为什么会有如此大的性能提升)

直接使用点卷积所带来的效果提升优于大部分使用设计的局部特征聚合模块,由于Pointnet未考虑局部特征。

(本文解决的问题是什么)

设计一种类似于图像卷积的点卷积神经网络,并设计刚性卷积和柔性卷积。

图像卷积可以考虑局部领域挨个提取局部邻域特征。

一种定义在点云上的卷积:KPConv总结 - 知乎 (zhihu.com)

 如有不对 请多多指正 谢谢大家!

你可能感兴趣的:(深度学习,cnn,计算机视觉)