[学习SLAM]ORB-SLAM3

原论文:ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual-Inertial and Multi-Map SLAMCarlos Campos, Richard Elvira, Juan J. Gómez Rodríguez, José M. M. Montiel, Juan D. TardósarXiv:2007.11898

代码开源地址:https://github.com/UZ-SLAMLab/ORB_SLAM3

YouTube 视频订阅:https://www.youtube.com/channel/UCXVt-kXG6T95Z4tVaYlU80QORB-SLAM3


ORB-SLAM3摘要

      本文介绍了ORB-SLAM3,这一个首创能够基于视觉/视觉惯导/多地图的SLAM系统,可以使用单目,双目,RGBD相机(针孔/鱼眼相机模型)。

       第一个创新点,它完全依赖最大后验MAP估计,进行基于特征点的视觉惯导紧融合,在IMU初始化阶段也是如此。
此系统可以实时地鲁棒地在或大或小,室内室外环境中运行,比之前的系统精度提高2-5倍

       第二个主要创新是多地图系统,基于提高了召回率的场景重识别方法,使得ORB-SLAM3可以在不佳的环境中长时间运行。当发生丢失时,它创建新地图,当重新到访建立过地图的地点,新地图回无缝地合并到老地图中。对比只用前几秒信息的视觉里程计系统,ORB-SLAM3是第一个能够在所有阶段重新利用之前所有信息的系统。基于co-visible关键帧的Bundle adjustment方法,使得即使两个信息其相隔的时间很远,或者来自于之前的建图阶段。也能够有较高的是差来提高准确度。

       我们的实验表明,在利用所有传感器时,ORB-SLAM3和最好的系统鲁棒性相同,并且显著地更加精确。
值得注意的是,我们的双目惯导SLAM系统,在EuRoc飞行器数据集上达到了3.6cm的准确度,在TUM-VI手持快速运动的数据集(代表AR/VR场景设置)上达到9mm的精度。为了进益SLAM发展,我们公开了ORB-SLAM3代码


       ORB-SLAM3最大的accuracy的提升来源于monocular/stereo + IMU的MAP initialization(也是作者几个月前的工作:https://arxiv.org/abs/2003.05766),简单说一下就是三步:

1. 在key frames上用bundle adjustment的Visual MAP;

2. Inertial的trajectory的MAP;

3. visual-inertial MAP,并且要是跑一个完完整整的visual-inertial bundle adjustment 5~10秒钟会更加精确。

       另一个作者说的小贡献,就是在loop closure问题上,他们依然用了DBoW2作为database来寻找相似的keyframes,写了一个包括RANSAC的6步的很复杂的步骤来保证确实是一个有效的loop closure,逻辑比ORB-SLAM2更清晰更复杂,识别出来之后他们会visual inertial map merging。

      总的来说跟ORB-SLAM2基本一脉相承,ATE结果也惊人的好,再一次带领大家把monocular/stereo + IMU SLAM这个领域做到无事可做的地步。


介绍

        ORB-SLAM 系列是一个 feature-based 的 SLAM 系统,关于 feature-based、a geometric BA that minimizes feature reprojection error 这些与其他类型的区别、优缺点等就不在这里赘述。随着 loop-closing 技术在一些 VO 系统中慢慢被引进,VO 与 SLAM 系统两者之间的差异正在逐渐模糊。但是在作者的理念中,SLAM 是:一个移动的对象建立起环境的地图并且实时计算自己在地图中的位姿;而 VO 的重点是估计自身的运动(ego-motion)。注意这点,map 部分被认为是 SLAM 中非常重要、具有灵魂东西。feature-based 的 map 给 SLAM 过程带来了很大的好处,主要体现在可以将与历史数据之间的约束加入到 BA 之中。这里指的历史数据关联,被作者分为了三类

     Short-term data association

  • 该类型的 data association 主要聚焦于当前视野范围内的环境信息(也就是 feature)。这也是大多数 VO 系统使用的数据关联类型。这种类型的数据关联只聚焦于当下小窗口,所以说比如你在较长时间间隔到达同一地方两次,误差仍继续漂移。

      Mid-term data association

  • 在累积误差仍然很小的时候,当经过了已经 map 的地方发生了回环并且可以进行 match,这个时候即为 mid-term data association,把约束加到 BA 里进行优化从而消除误差。这也是 SLAM 系统比 VO 精度更高的一个关键点。

     Long-term data association

  • 不管当前的累积误差积累了多大,或者当此时的 feature 已经跟丢了,此时使用 place recognition 方法将当前观测与之前经过的场景里的信息进行匹配。long-term data association 允许重置累积误差并且通过 pose-graph 来优化 loop。这个功能被认为是 SLAM 在中大有回环的场景中提升精度的关键因素。

       ORB-SLAM3 同时利用了这三种 data association,并且还加入了 multi-map data association。这样就允许来自之前的子地图的信息来进行 match 和 BA。这样以来实现 SLAM 的终极目标:建图并用来提供高精度的定位。作者也提到,This is essentially a system paper。最大的贡献就是 ORB-SLAM3 它本身。The most complete and accurate visual,visual-inerial and multi-map SLAM system to date。具体的 contributions 如下:

  • A monocular and stereo visual-inertial SLAM system
  • 一个完全基于 Maximum-a-Posteriori 的 SLAM 系统。并将其引入到 IMU 初始化吗阶段,这个是作者 ICRA 2020 的一篇论文:Inertial-only optimiza- tion for visual-inertial initialization 中详细提出的。作者将其添加到 VI-ORB-SLAM 系统中,并将其扩展到双目。作者的实验结果展示他们的 monocular and stereo visual-inertial system 非常的鲁棒,甚至在无回环的条件下显著比其他 visual-inertial 方法具有更好的精度。
  • High-recall place recognition
  • Recall,即召回率,在所有真实回环中,被正确检测出来的概率。以往的 SLAM 系统和 VO 系统通常使用 DB0W2。DB0W2 需要连续三帧在同一个地方匹配三个 keyframes 之后,才进行 geometric consistency。这样的代价还是比较大的,大大影响了系统的运行速度。作者提出了一个新的 place recognition。先在当前的候选关键帧中进行 geometrical consistency 的检测。然后 three covisible keyframes 进行 local consistency 检测(一般情况下已经在 map 里了)。这个策略计算量会高一些,但是会带来更高的召回率和地图的精度。
  • ORB-SLAM Atlas
  • 本篇是第一个完整的可以处理 visual and visual-inertial 信息、具有单目与双目的 multi-map SLAM system。该 Atlas 中存有一系列未连接的地图,并且可以在其上进行 place recognition, camera relocalization, loop closure, accurate seamless map merging 操作。之前作者在 IROS 2019 针对 ORB-SLAM 做了一个纯视觉的 Atlas:ORBSLAM-atlas: a robust and accurate multi-map system。作者这里相当于就是加了一个新的 place recognition 方法,以及 inertial 信息。
  • An abstract camera representation
  • 作者提供了两种相机模型以使得系统更加的容易被扩展:pinhole 和 fisheye (针孔相机模型与鱼眼相机模型)。

相关工作

       作者分别从 Visual SLAM、Visual-Inertial SLAM、Multi-Map SLAM 几个方面描述相关工作,并做了一些与其他系统具体的实验对比,比如在 EuRoC 数据集的多场景操作,精度比 VINS-Mono 高 3.2 倍。具体这里不再赘述请移步原论文。这里主要贴出作者与其他著名系统之间的对比:

[学习SLAM]ORB-SLAM3_第1张图片

系统概览

[学习SLAM]ORB-SLAM3_第2张图片

还是那句话:It is a full multi-map and multi-session sys- tem able to work in pure visual or visual-inertial modes with monocular, stereo or RGB-D sensors, using pin-hole and fisheye camera models.ORB-SLAM3 基于 ORB-SLAM2 和 VI-ORB-SLAM 构建。整个系统流程和 ORB-SLAM2 相似。主要分以下几个部分:

  • Atlas
  • 它是一堆未合并的 map 的集合。分为 active map 和 non-active-map 两部分。active map 就是当前在用的 map,由 tracking thread 喂进数据,并由 local mapping thread 进行持续优化与扩展地图。剩下的就是 non-active map。Atlas 是基于作者构建的一个独特的 DBoW2 keyframes database 用来做重定位、回环与地图合并。
  • Tracking thread
  • 处理进来的图像与 IMU 信息,并通过最小化重投影误差实时计算当前帧与地图的相对位姿。同样也进行 keyframe 的选择。在 visual-inertial 配置下,速度与 IMU 的 biases 也同时被优化与估计。
  • 当跟丢之后,tracking thread 尝试利用 Atlas 进行重定位。如果成功了,将继续进行 tracking,需要的话进行切换 active map 的操作;若定位失败了(过了一个设定的时间),将重新初始化一个新的 active map 进行 tracking 与 mapping。
  • Local mapping thread
  • 往 active map 中添加 keyframes 和 points,移走 outliers,在一个local window 中通过 visual 和 visual-inertial bundle adjustment 来 refine maps。IMU 的参数初始化也通过这个 mapping thread 进行 refine。
  • Loop and map merging thread
  • 一直将active map 与整个 Atlas 基于 keyframe 的速度进行相似性度量。如果相似场景区域在当前的 active map 中,将进行 loop correction;当这个区域也属于其他地图,将进行合并操作并将合并后的地图置为当前的 active map。在进行 loop correction 的时候,一个 full BA 将再开一个线程进行,以来追求更高的精度,但这个并不要求实时性。

相机模型

        ORB-SLAM3 想要在系统中将相机模型给抽象出来,将所有与相机模型相关的参数给剥离出来(如projection and unprojection functions, Jacobian, etc)形成单独的模块。作者实现了经典的 pinhole 针孔相机模型与 Kannala-Brandt 鱼眼相机模型。

重定位Relocalization

     ORB-SLAM 之前做重定位通过 ePnP 做的,但 ePnP 需要 pinhole。所以在这个系统中,为了兼顾鱼眼相机模型,采用了 MLPnP:Maximum Likelihood Perspective-n-Point algorithm。该算法以反投影的光线(rays)为输入,所以提供个反投影模型鱼眼相机就可以用了。

Non-rectified Stereo SLAM

目前很多双目系统都假设了一个很理想的双目:同样的焦距、成像平面在同一平面上、aligned with horizontal epipolar lines(这样一目的 feature 在另一目的同一行中寻找即可)。鱼眼的话,做 rectifying 视野范围会大大减小,丧失了其本身的优势。但是实际场景通常不是这么理想的,并且不依赖 rectifying,因此可以考虑:

  • 双目之间采用一个常数 SE(3) 变化来描述两者变换关系。
  • 双目有共同观测区域。

这样做三角化和 BA 比较高效,估计 6 自由度姿态也通过先在双目与 IMU 中的一个上做,其他的通过刚体位姿变换即可。当处于双目共同观测区域的 landmarks 通过双目进行三角化,不再共同区域的就正常的 multi-view 进行三角化即可。

Visual-Inertial SLAM

这一块就比较 formulation 了。和常见的很像,IMU 预积分、构建残差项等等。优化的状态变量:

IMU 预积分:

[学习SLAM]ORB-SLAM3_第3张图片

 

相机 pose 与 landmark 3D 点的视觉重投影误差:

最终优化:

[学习SLAM]ORB-SLAM3_第4张图片

 

几种情况下的因子图:

[学习SLAM]ORB-SLAM3_第5张图片

IMU Initialization、Map merging、Loop closure

关于剩下的 IMU 初始化、回环等模块,这些是大坑,后续在接下来的文章中详细补充。

[学习SLAM]ORB-SLAM3_第6张图片

实验结果

作者做了大量的实验对比,在大多数场景下 ORB-SLAM3 具有最好的结果。详细实验设置请移步原论文,这里贴出概括性的结果对比表格。Single-session SLAM on EuRoC

[学习SLAM]ORB-SLAM3_第7张图片

Visual-Inertial SLAM on TUM-VI Benchmark

[学习SLAM]ORB-SLAM3_第8张图片

 

[学习SLAM]ORB-SLAM3_第9张图片

image

[学习SLAM]ORB-SLAM3_第10张图片

image

Multi-session SLAM

[学习SLAM]ORB-SLAM3_第11张图片

image

 

参考链接:https://www.jianshu.com/p/3e2001a37fa5


实践说明

运行ORB-SLAM3的示例

数据集:

1 [EuRoC数据集] (http://projects.asl.ethz.ch/datasets/doku.php?id=kmavvisualinertialdatasets) 使用立体或单目,有或没有IMU;

2 [TUM-VI数据集](https://vision.in.tum.de/data/datasets/visual-inertial-dataset) 使用鱼眼,立体或单眼,带或不带IMU。

一些执行示例的视频可以在[ORB-SLAM3频道]找到(https://www.youtube.com/channel/UCXVt-kXG6T95Z4tVaYlU80Q).

EuRoC数据集与TUM-VI数据集主要是非鱼眼与鱼眼的相机模型.---pinhole 和 fisheye (针孔相机模型与鱼眼相机模型)。

 

#4。EuRoC示例
[EuRoC数据集]用两个针孔摄像机和一个惯性传感器记录。我们提供了一个在所有传感器配置中启动eurc序列的示例脚本。
1从下载序列(ASL格式)http://projects.asl.ethz.ch/datasets/doku.php?id=kmavvisualinertialdatasets
2在项目的根上,打开脚本“euroc_examples.sh“。将**pathDatasetEuroc**变量更改为指向已解压缩数据集的目录。
3执行以下脚本以处理所有传感器配置的所有序列:

```
./euroc_examples
```


##评价
EuRoC为IMU主体参考中的每个序列提供基本真实性。由于纯视觉执行报告以左摄像头为中心的轨迹,我们在“评估”文件夹中提供了地面真实到左摄像头参考的转换。视觉惯性轨迹使用来自数据集的地面真实情况。
执行以下脚本以处理序列并计算RMS ATE:
```
./euroc_eval_examples
```


#5。TUM-VI示例
[TUM-VI数据集]用两个鱼眼摄像机和一个惯性传感器记录下来。
1从下载序列(https://vision.in.tum.de/data/datasets/visual-inertial-dataset然后解压缩它。
2打开脚本“tum_vi_examples.sh“在项目的根上。将**pathDatasetTUM_VI**变量更改为指向已解压缩数据集的目录。
3执行以下脚本以处理所有传感器配置的所有序列:
```
./tum_vi_examples
```


##评价
在TUM-VI中,地面真相只在所有序列开始和结束的房间中可用。因此,误差测量序列末尾的漂移。
执行以下脚本以处理序列并计算RMS ATE:
```
./tum_vi_eval_examples
```


 

[学习SLAM]ORB-SLAM3_第12张图片

 ./Examples/Monocular/mono_euroc ./Vocabulary/ORBvoc.txt ./Examples/Monocular/EuRoC.yaml ./Datasets/EuRoC/MH05 ./Examples/Monocular/EuRoC_TimeStamps/MH05.txt dataset-MH05_mono

 

[学习SLAM]ORB-SLAM3_第13张图片

 

 

 

[学习SLAM]ORB-SLAM3_第14张图片

你可能感兴趣的:(SLAM,运动估计,计算机视觉)