【文献】SLAM RGB-L: Enhancing Indirect Visual SLAM using LiDAR-based Dense Depth Maps

文章目录

    • Article info.
    • Introduction
      • Review:Visual-LiDAR SLAM
      • Architecture
    • 稠密深度图生成
    • Take home messages
    • Resources
    • IDEAS

Article info.

RGB-L: Enhancing Indirect Visual SLAM using LiDAR-based Dense Depth Maps
https://arxiv.org/abs/2212.02085 2022

Introduction

Review:Visual-LiDAR SLAM

  1. 双目+LiDAR+IMU:W. Shao, S. Vijayarangan, C. Li, and G. Kantor, “Stereo visual inertial lidar simultaneous localization and mapping,” in 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 370–377, IEEE, 2019.
  2. 开源、VIO+LIO、实时:R3 live++: A robust, real-time, radiance reconstruction package with a tightly-coupled lidar-inertial-visual state estimator,

Architecture

【文献】SLAM RGB-L: Enhancing Indirect Visual SLAM using LiDAR-based Dense Depth Maps_第1张图片

稠密深度图生成

本文融合LiDAR数据方法:稀疏点云上采样成深度图直接接进ORB3的RGBD模块。

上采样的方法:前者更好

  1. 传统CV方法 (inverse dilation with 5*5 diamond kernel)
  2. 深度学习方法 (ENet)

Take home messages

  • 本文提出的 RGB-L 方法是建立在 ORB-SLAM3 的 RGB-D 模式之上的。
  • 相比于 ORB-SLAM3 的双目模式,本文的RGB-L计算量下降了40%
  • 点云稀疏会导致特征点深度信息不准

Resources

本文代码: https://github.com/TUMFTM/ORB_SLAM3_RGBL

IDEAS

你可能感兴趣的:(文献阅读,人工智能,计算机视觉)