运行用Kinect重建3D场景的开源app——RGBDemo

          KinectFusion是微软研究院的一个项目,使Kinect可以作为3D物体扫描仪,代码开源在PCL(Point Cloud Library)点云库中,去年在Windows下配好环境,尝试了一下效果,没有做总结,最近将依次把相关的东西总结一下同时也重新学习,欢迎大家一起讨论,批评指正。

         这一节我们先来看一个简单小型的开源Demo软件——RGBDemo,让你的设备跑起来,并且看到用Kinect三维重建的输出效果。RGBDemo由Nicholas Burrus和他的团队开发,与KinectFusion所提供的结合颜色的显示是把模型和RGB图像分别处理再结合再一起的不同,RGBDemo直接显示彩色的三维点。RGBDemo的官网上有源码的下载链接,相关Demo的简介等等。

  • 您可以在github上下载源码,一个外国人Razor Vision的CV博客上写了由0.6.1版源码编译的过程:How to compile RGBDemo 0.6.1。配置好NITE,OpenCV,GLUT和GLEW后,用Cmake配置源码,编译。现在最新的版本是0.7.0,我尝试了用0.7.0的源码编译,遇到问题没有运行成功。
  • 好在也可以下到Windows下预编译的版本: RGBDemo-0.7.0-Win32.zip (LGPL License)。 下载好预编译的压缩包之后, 先按照下面的顺序依次安装OpenNI-1.5.4,Sensor-5.1.0.41,NITE-1.5.2.21。              

        下图是Demo中rgbd-reconstructor的重建结果。下面的结合不像KinectFusion中那样是先生成mesh表面,再根据匹配的结果,做RGB渲染,这里是直接在渲染时就把RGB结合在点上,所以这里看到的结果其实是点集,并不是重建之后的结果,这里也用了跟踪算法来跟踪。因为没有生成mesh,跟踪丢失的情况相较KinectFusion不明显,运算速度也稍快一些。 下两图是逐步生成过程:

运行用Kinect重建3D场景的开源app——RGBDemo_第1张图片

图3-6  RGBDemo重建过程

 

扫描结束后,从不同视角看所生成的点云模型:

 

图3-7  RGBDemo重建结果不同角度查看


你可能感兴趣的:(运行用Kinect重建3D场景的开源app——RGBDemo)