对于RGB-D相机,视觉密集型下的SLAM算法(Dense Visual SLAM for RGB-D Cameras)

(1)密集型视觉下,实现RGB-D摄像机的SLAM,在本文中我们实现了对所有像素,最小化度和深度误差,对比与稀疏基于特征的方法,这使得我们能够更好的利用图片中的可用信息,获得更高的位姿精确度(相机的运动信息)。此外,我们提出一个基于熵的相似度测量关键帧选择和闭环检测。对于所有的匹配,我们通过优化使用g2o建立了一幅图。我们在广泛公开的数据集的基础上,评估我们的算法,发现在较低的场景文理和低结构下,表现良好,我们的方法显著降低了轨迹误差;



2)许多机器人应用程序,比如导航和映射,需要对于移动摄像机精确和漂移位置的估计,以前的方法是基于视觉特征并结合束调整,或者位姿图优化。选择过程的要点是丢弃所获得图像的实质性部分,我们的目标是设计一种密集型的SLAM方法,更好的利用通过传感器获得的可用信息,实时运行,并且能够有效的消除漂移,通过全图最优化,矫正积累误差。


(3)通过帧到帧的匹配方法,实现的视觉测程法,会存在固有的漂移,最近几年,出现了密集跟踪和映射方法,这种方法的性能与基于特征方法的性能作比较,帧到模型的方法,比如。。共同估计的持久模型世界,它们也会积累漂移,仅工作在重建小型工作区,虽然这个问题也可以用更复杂的延迟成本函数,校准程序,一个更基本的方法是可取的。在本文中,我们扩展我们的密集的视觉测程法,通过几个重要的组件大大的减少了漂移,并且为全局最优映射铺平了道路,图1显示了优化轨迹,以及由此导致的一致性点云模型


(4)最近几天,提出了基于深度相机RGB-D的视觉密集型测程法。基于已有的技术,比如利用ICP算法,最小化3D点的几何误差.......(总结了前人的一些方法)........

 

对于RGB-D相机,视觉密集型下的SLAM算法(Dense Visual SLAM for RGB-D Cameras)_第1张图片


                          实验结果




(3)基本思想就是在最小光度和深度误差下,从一系列拍摄所得到的图片流中,在不同的两点上,有不同的灰度图像和包含深度信息的图像,估计相机的移动状态g*,原理图

如下:

对于RGB-D相机,视觉密集型下的SLAM算法(Dense Visual SLAM for RGB-D Cameras)_第2张图片

并且在光一致的条件下,在同一点在不同的图片中,对应的灰度信息应该是相等的,同样对于深度信息的测量,在起始图当给定一个点的深度信息,并且给出了这个点的运动轨迹g*之后,在终止图中,我们可以计算得到同一点的深度信息,理想情况下,我们根据g*估计出来的该点的深度信息与实际上改点的深度信息是相同的。

 

深度误差消除——ICP

灰度误差——条件概率(运动转移矩阵关于灰度误差的分布满足T分布,并且

动态的设置T分布的权重)

 

(3)新型的关键帧选取方法及基于熵的闭环检测方法

传统的选择关键帧的方法,在帧数增加的同时,会固有的积累偏移。为了消除这种偏移,我们采用关键帧基础上的位姿SLAM算法,为了限制在当前图片和关键帧图片之间的偏移,所采用的方法是——(当关键帧与当前帧足够接近的时候,我们可以认为当前图片和关键帧图片之间的偏移达到了足够小)当前帧与最近的关键帧之间的距离(用某个熵值来衡量)大于每一个阈值的时候,人为的插入关键帧,所以该方法的重点是,在什么时候插入关键帧

 

1.传统的方法:当相机的旋度信息以及相机的位置信息发生改变时,如果当前帧与关键帧的特征点数目小于阈值的时候,我们这时候会选择添加关键帧。(当然这里也有人采用当前帧与关键帧的灰度误差E,小于某一个值,将这个值作为阈值,并在此基础上添加关键帧)。

2.论文的方法:在采用灰度误差的基础上,定义了一个熵函数,该熵函数正比于In|E|.

对于以第K帧为关键帧的图片,我们计算:


如果大于某个阈值,我们将第k+j帧图片作为关键帧。

 

(3)采用熵的方法,我们也可以应用到闭环检测中,修改分母....即可...

 

 

 

 

 

本文总结:————————————1.如何减小两幅之间的灰度误差(新的概率分布方法)

 

———————————————— 2.如何减小两幅图之间的深度信息误差(ICP

 

———————————————— 3.新的选取关键帧以及闭环检测的方法,这里引入了      一个熵的思想(关于灰度误差的熵函数)



你可能感兴趣的:(图像处理,SLAM算法,RGB-D相机)