RGB-D dense SLAM with keyframe-based method

RGB-D dense SLAM with keyframe-based method

    目前,基于特征的视觉SLAM方法趋于成熟阶段。基于特征的视觉SLAM系统通常在不产生稠密表面的情况下计算相机位姿,而稠密SLAM系统同时输出相机位姿以及重建区域的稠密表面。本文结合了基于特征的视觉SLAM和稠密SLAM的两者的优势,基于ORB-SLAM2及ElasticFusion,提出了一种新的RGB-D稠密SLAM系统。

    系统框图:

RGB-D dense SLAM with keyframe-based method_第1张图片

    系统流程描述:

    (1)通过最小化重投影误差和稠密几何误差的组合来计算相机位姿,在g2o中构造了一种新的边,在图的优化中加入了用稠密几何误差建立的额外约束,利用GPU将代价函数从粗到细地最小化,有助于提高系统帧率,促进相机机大幅度运动的收敛。

    (2)利用surfel模型对RGB-D流进行融合,实时生成稠密表面模型,生成稠密表面,为用户提供扫描表面的反馈信息。在系统进行必要的图优化和BA后,用嵌入的变形图更新稠密模型中的曲面,使其与优化后的相机位姿保持一致。

    (3)当用户结束重建时,通过将流与优化后的相机位姿重新合并,获得更好的三维模型。

1. Tracking

    重投影误差(The reprojection error):

在这里插入图片描述

    几何误差(point-to-plane distance errors):

在这里插入图片描述

    在单位矩阵旁线性化几何误差:

RGB-D dense SLAM with keyframe-based method_第2张图片

    总的代价函数:

在这里插入图片描述

2. Loop Closing

    和ORB-SLAM2一样,使用DBoW2来检测回环候选关键帧。当找到回环时,执行本质图优化和全局的BA。为了与更新后的相机位姿和特征位置保持一致,使用变形图更新生成的稠密表面中面元的位置和法线。

3. Dense Mapping

    和ElasticFusion一样,使用surfel模型表示曲面。每个surfel存储位置、法线、颜色、半径和时间戳信息。
RGB-D dense SLAM with keyframe-based method_第3张图片

4. 实验结果

    数据集:TUM RGB-D benchmark datasets、ICL-NUIM
benchmark datasets

    评估:absolute trajectory error (ATE)

    the accuracy of camera tracking:

RGB-D dense SLAM with keyframe-based method_第4张图片

    the reconstruction surface accuracy:

RGB-D dense SLAM with keyframe-based method_第5张图片RGB-D dense SLAM with keyframe-based method_第6张图片
RGB-D dense SLAM with keyframe-based method_第7张图片

5. 展望

    将IMU测量集成到系统中。

你可能感兴趣的:(视觉SLAM)