SLAM综述(2)-视觉SLAM

SLAM包含了两个主要的任务:定位与构图,在移动机器人或者自动驾驶中,这是一个十分重要的问题:机器人要精确的移动,就必须要有一个环境的地图,那么要构建环境的地图就需要知道机器人的位置。
本系列文章主要分成四个部分:
在第一部分中,将介绍Lidar SLAM,包括Lidar传感器,开源Lidar SLAM系统,Lidar中的深度学习以及挑战和未来。
第二部分重点介绍了Visual SLAM,包括相机传感器,不同稠密SLAM的开源视觉SLAM系统。
第三部分介绍视觉惯性里程法SLAM,视觉SLAM中的深度学习以及未来。
第四部分中,将介绍激光雷达与视觉的融合。

摘要
随着CPU和GPU的发展,图形处理能力变得越来越强大。相机传感器同时变得更便宜,更轻巧,功能更广泛。在过去的十年中,视觉SLAM迅速发展。与Lidar系统相比,使用相机的Visual SLAM还使该系统更便宜,更小。如今SLAM可视化系统可以在微型PC和嵌入式设备中运行,甚至可以在智能手机[1],[2]等移动设备中运行。

视觉SLAM通常包含了传感器数据的处理,包括了摄像机或惯性测量单元,前端的视觉里程计或视觉惯导融合的里程计,后端的优化,后端的闭环以及构建地图[3]。并且重定位是稳定和准确的视觉SLAM的另外一个十分重要的模块[4]。在视觉里程计的过程中,除了基于特征或模板匹配的方法或确定相机运动的相关方法之外,还有另一种方法依赖于Fourier-Mellin变换[5]。[6]和[7]给出了使用地面摄像头时没有明显视觉特征的环境中的实例

视觉传感器

基于视觉SLAM的最常用的传感器是相机,相机可以分为单眼相机,立体相机,RGB-D相机,事件相机等。

单眼相机:基于单目摄像机的视觉slam具有与实际轨迹和地图大小对应上会有一个尺度问题,也就是我们常说的,单目相机无法获得真实的深度,这就是所谓的尺度不确定性[8]。基于单目摄像机的SLAM必须进行初始化,并面临漂移问题。

立体相机:立体相机是两个单眼相机的组合,但已知两个单眼相机之间的基线距离。尽管可以基于校准,校正,匹配和

你可能感兴趣的:(点云学习)