V-SLAM笔记整理总结

V-SLAM笔记整理总结

参考博文:https://blog.csdn.net/qq_33414553/article/details/81270112
SLAM(即时定位与建图)理解:建图:描述机器人制图Mapping时假设机器人位姿已知。制图时只需要更新地图。
定位:描述机器人定位问题时假设环境地图Map已知。
视觉SLAM相机种类:单目(Mono)、双目(Stereo)、深度(RGB-D)、鱼眼全景(其他类型)。
整体框架:前端(VO视觉里程计),后端(Optimization),回环检测(Loop Closing)、建图(Mapping)。
开源代码:ORB-Slam ORB-Slam2 vins-mono vins-fusion(vins稳定性好。orb容易掉帧)。
特征点法求点云深度(用于建图): 2D-2D(对极几何):第一组图片用于初始化。
3D-2D(PNP):已知3D点与2D点进行匹配。
3D-3D(ICP):3D与3D点之间进行匹配。
光流法求点云深度(用于建图):图像灰度值进行匹配。其他计算与上述相同。
计算效率上主要是特征提取与匹配耗时,后期配准、三角化计算速度快。
小知识点:
1.相机位姿转换(旋转+平移)是基于世界坐标系的(SLAM中世界坐标系由自己选定,是相对的,不是绝对的。可以选择与相机坐标系重合。)
2.相机运动时观察到的路标(传统二维码等,视觉特征点)会在世界坐标系中不断收敛,基本不会产生漂移现象。
3.IMU是自身坐标系标定,由于IMU传感器与相机位置不同,因此在转换世界坐标系的时候一定会产生误差,随着时间的积累必定会产生漂移现象。因此现阶段大多是二者相互融合。
4.闭环检测一般使用词袋模型进行场景匹配。涉及场景识别问题,因此闭环检测模块可以看作是视觉系统的模式识别问题。可以使用机器学习方法。但是slam要求实时性能,因此需要侧重在线学习方法。
正在学习的闭环算法:基于图像感兴趣区域的闭环检测。
基于局部语义拓扑图的闭环检测
机器学习在线学习方法:支持向量机中的感知算法。
机器学习离线学习方法:绝大部分常见的算法。
5.噪声模型:高斯分布表达式;
运动模型:采样方式表达式;主要应用粒子滤波算法。
6.常见的地图有:度量地图,拓扑地图,语义地图。slam中(自己做的项目中)常用占用概率栅格地图。

你可能感兴趣的:(slam,SLAM,视觉slam笔记,slam知识点总结,slam实习前知识总结)