A Note on 3D ShapeNets: A Deep Representation for Volumetric Shape Modeling

3D ShapeNets:体积形状建模的深度表示
Paper

<1>
利用2.5D深度传感器,廉价

把不完整的3D形状->完整

To this end, we propose to represent a geometric 3D shape as a probability distribution of binary variables on a 3D voxel grid, using a Convolutional Deep Belief Network.
卷积深度信念网络
*将几何3D形状表示为3D体素网格上的二元变量的概率分布

3D ShapeNets可以学习不同对象类别和任意姿势的复杂3D形状的分布。

关于3D表示的理论
基于3D的方法的成功主要局限于使用基于模型的关键点匹配的实例识别

缺乏3D几何形状的强通用表示。

This allows us to infer the full 3D volume from a depth map without the knowledge of object category and pose a priori.
从深度图直接推断3D volume

<2>
3D ShapeNets
represent a geometric 3D shape as a probabilistic distribution of binary variables on a 3D voxel grid.
**将几何3D形状表示为3D体素网格上二元变量的概率分布

采用Next-best-view

数据处理
物体->深度图->切片轮廓,不同类型的体素(voxel),表面红内部遮挡部分蓝色->识别结果

->复原单一view
Volumetric representation的数据作为ShapeNets的数据输入进行物体复原。
uncertain,可能有很多种结果,获取next-view数据进行确定最终结果。

->next-best-view
所有可能
原始view下所有可能形状
计算备选对应可能形状的不确定性
最小的就是next-best-view

你可能感兴趣的:(A Note on 3D ShapeNets: A Deep Representation for Volumetric Shape Modeling)