[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space

目录

  • 核心思想
  • 涉及到的底层模块
  • 网络结构
  • 训练
  • mesh提取
  • 实验
    • 概述
      • 三方面实验
      • baseline方法:
      • Dataset: ShapeNet
      • 评价指标(Metrics):
    • 具体实验
      • 表达能力实验
      • 单个图像3D重建实验:
        • ShapeNet:
        • real data
      • 点云补全实验:
      • 体素重建实验
      • 无条件mesh生成
      • 消融实验(Ablation Study)
  • 代码运行配环境个人笔记

核心思想

本文提出了一种3D图形的表示方法,并给出了得到他的网络架构和训练方法。
用decision boundary 来表示物体的表面。
这个方法贼好,放在2D类比,就像像素图和矢量图,矢量图是精度是无限的,但又不会耗费额外的内存。

(对啊,早该想到啊,怎么会2019年才出来。。。既然2D可以有矢量图,3D就不能吗)
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第1张图片
具体一点,一个物体用一个occupancy function 来表示:
在这里插入图片描述
注意,是实数空间,不是离散的按一定分辨率取样的。
然后用一个神经网络来逼近这个函数,给每个实空间的3D点一个0-1之间的占用概率(因此和二分类模型等价)。神经网络f输入是一个点和一个几何体的表示(X),输出是一个0-1之间的实数,表示这个点在这个几何体里的概率。

在这里插入图片描述

这不就完事儿了,直接拿数据训练一下呀,就是一个普通的二分类网络。

对不同输入类型的数据,用不同encoder来输入。
单个图像:ResNet
体素:3D CNN
点云:PointNet等

涉及到的底层模块

Marching box算法,生成mesh用的
Fast-Quadric-Mesh-Simplification algorithm: 简化mesh用的。似乎不是一个通用方法,而是github上一个挺好的算法。https://github.com/sp4cerat/Fast-Quadric-Mesh-Simplification

网络结构

[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第2张图片

训练

需要采样进行训练。
每个minibatch采样k个点。
论文4.6比较了不同的采样方式,发现在boundingbox内均匀采样,并加一个小的padding,效果最好。
损失函数就是交叉熵函数。

mesh提取

网络训练好后,如何得到mesh呢?
论文提出 Multiresolution IsoSurface Extraction (MISE), 多分辨率表面提取算法。输入训练好的occupancy network,输出mesh。

[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第3张图片

方法描述:

  1. 把要判断的范围按一个粗粒度的初始分辨率分成grid。每个grid有一些角点(三维的话相当于一个cube,有8个顶点)
  2. 所有这些角点,用训练好的网络计算出occupancy value (0-1之间的实数).
  3. 网络超参数 τ \tau τ,物体厚度。大于等于 τ \tau τ的为occupied,否则为un occupied. (可以认为边界点的occupancy value 为 τ \tau τ。)
  4. 如果一个grid,他有的角点是occupied,有的是unoccupied,那他就是active的grid,后面要继续考察。(淡红色的那些grid)
  5. 把所有active的grid再次细分,(对半分,最后一共八个)。重复以上步骤,直到满足目标分辨率。
  6. 用marching cubes 算法来得到mesh。(线性插值认为一个grid的一条边中,和等值面的交点由顶点值做线性插值计算。(等值面是occupancy value为 τ \tau τ的面)
  7. 用一阶和二阶梯度来优化一下得到的mesh。

marching cubes的一张图示:来自视频
这个视频6分钟,原理只在前半部分三分钟左右,一看就懂,清楚明白
(一个cube8个点,每个点可能在或不在,所以一共2^8, but thankfullly, 只有14种,其余的都是对称)
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第4张图片[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第5张图片

一些细节:

  • 初始分辨率需要足够高。一个极端例子是grid太大,整个物体都包进去了。这样grid角点全都是not occupied, 检测出来的物体就没有mesh了。实际发现大约32^3 差不多了。
  • refine的具体细节
    • 第一步:用 Fast-Quadric-Mesh-Simplification algorithm 简化模型。
    • 第二步:用一二阶梯度优化。
      • 每个面随机采样得到点pk, minimize the loss:
      • (这里没看懂)在这里插入图片描述

实验

概述

三方面实验

  • 先检验复杂3D模型用occupancy net的表达能力。也就是将ground truth转换为occupancy net的形式。看二者的精度差别和存储空间差别。主要是和基于体素的方法对比。(废话,那肯定好啊)

  • 再针对single image, noisy point clouds, low resolution voxel representations 分别实验

  • 最后验证生成能力。

baseline方法:

single image point cloud voxel
voxel based 3D-R2N2 3D-R2N2
point based PointSet Generating Networks(PSGN) PSGN
mesh based Pixel2Mesh & AtlasNet Deep Marching Cubes (DMC)

Dataset: ShapeNet

评价指标(Metrics):

  • IoU:模型的交并比。越高越好。(只有watertight mesh 能用)

  • Chamfer-L1 distance:越小越好。(全部可用)
    accuracy和completeness的平均。
    accuracy是预测mesh上的点到groud truth上的点最近的距离。(两者各随机采样100k个点,取均值)
    completeness是 反过来,ground truth上面的点,到最近的output mesh上的点的距离。
    用KD tree求距离。

  • normal consistency score:还没看懂 (点云不可用)
    (一个mesh的法线) 和 (另一个mesh中,他的最近邻居的发现)的绝对点集。(取均值)

具体实验

表达能力实验

给定ground truth的mesh,训练occupancy network。
同时也用体素表达这个ground truth。
对比体素法和ONet的 IoU 和 参数大小。

定量分析:ONet精度更高,参数更少
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第6张图片
平均IoU约为0.89,与精度关系不大。

定性分析:肉眼可见的细致平滑[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第7张图片

单个图像3D重建实验:

定量分析:ShapeNet数据集
定性分析:KITTI 和 OnlineProducts dataset

ShapeNet:

[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第8张图片

[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第9张图片
有趣的是,在Chamfer-L1指标上,其实是AtlasNet最好。
说是PSGN,Pixel2Mesh , AtlasNet都在这个指标上训练了;Onet没有,但也不错。

real data

[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第10张图片

点云补全实验:

ShapeNet里面的几何体,采样300个点,再用高斯加噪声。
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第11张图片

体素重建实验

把体素super resolution:分辨率提到贼高。
输入体素,输出mesh。
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第12张图片

无条件mesh生成

有点没看懂,好像是不给定输入,(可能是随机feature作为输入),生成新模型。

能确定的是unsupervised。
但不知道类别是怎么给定的。
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第13张图片

消融实验(Ablation Study)

采样方法中发现均匀采样最好。
模型架构上发现ResNet和CBN(conditional batch normalization )都很有用。
[读论文]CVPR2019: Occupancy Networks: Learning 3D Reconstruction in Function Space_第14张图片

代码运行配环境个人笔记

注释掉CMakeList里面的compute_30
可能需要安装glew和 另一个啥
apt-get install parallel

你可能感兴趣的:(point,cloud,AI,读论文,point,cloud,deep,learning)