ORB-SLAM2 + windows + usb摄像头 项目实战(一)

前言:本博客是博主本科毕业设计时的学习、探索与总结系列博客第一篇。主要是介绍了ORB-SLAM2项目的相关背景功能以及代码学习资源,并且说明了一下这次博客的目的。其中,开发环境为VS2017 + C++,其中难免有很多不足与疏漏之处,还望不吝赐教。


系列博客
ORB-SLAM2 + windows + usb摄像头 项目实战(二)


目录

  • 一、ORB-SLAM2 项目背景简介:
    • 1.ORB-SLAM是什么,有什么特点?
      • 1)简介:
      • 2)功能:
      • 3)工作原理:
      • 4)总结:
      • 5)代码梳理分析相关博客与视频:
    • 2.ORB-SLAM是谁做的,它的项目源码地址是什么?
      • 1)作者、论文、ORB-SLAM项目源码 :
      • 2)ORB-SLAM2项目介绍以及源码地址:
    • 3.本系列文章要对这个项目做哪些移植和修改?
  • 二、相关源码以及库的下载:
    • 1.win下项目下载:
    • 2.二进制ORB字典读取方案源码地址:


一、ORB-SLAM2 项目背景简介:

1.ORB-SLAM是什么,有什么特点?

1)简介:

ORB-SLAM是一个用于 单目相机(后期的ORB-SLAM2也提供了双目立体相机以及RGBD相机的接口)的精确的多功能SLAM(simultaneous localization and mapping,即时定位与地图构建)方案。

2)功能:

它能够实时计算并跟踪摄像机在空间中的运动轨迹,也能用于小到桌子,大到多个城市街道的多种规模的场景的三维重建。除此以外,它还具备较好的稳健性,当摄像头跟丢后还能够实时进行全局的重定位找回摄像头位置。最后,它针对平面以及非平面,提供了两套初始化方案,使得系统的初始化效果更为稳健。

3)工作原理:

(1)第一步,系统读取摄像头参数与ORB字典的数据,并且初始化整个系统。
(2)第二步,它接着初始化相机位姿,初始化时采用ORB算法(算法具体介绍可以参考以下博客1-ORB特征提取详解, 2-ORB特征检测算法小结,3-特征点匹配——ORB算法介绍) 提取第一帧图像的特征点,并且得到相连两帧图像之间的特征点的匹配;
(3)第三步,在得到特征点匹配的信息的基础上,利用 双目立体视觉中的三角法(三角法算法数学原理参考以下博客: 双目测距数学原理详解,代码参考以下博客: 1- 学习OpenCV(2)双目测距原理,2-【opencv学习】完全基于opencv的双目景深与测距的实现,3- VS2017+OpenCV3.3基于SGBM算法的双目立体视觉、双目测距(双目校正和立体匹配)) 恢复匹配上的特征点的深度(注意此处我们采用的是单目相机,单目相机在不同位置采集的两张图像,也可以采用类似三角化方法恢复空间点深度),并同时得到特征点的三维空间位置(此坐标成为世界坐标系,它以初始化时的相机光心为坐标系原点,此外还有相机坐标系、像素坐标系的概念,具体坐标系原理见博客 双目测距数学原理详解中说明)。
(4)第四步,初始化得到特征点的空间位置之后,会先将一部分符合要求的特征点标记为路标点(Mappoint),再对路标点利用PnP算法(PnP算法原理参考以下视频1- PnP算法简介与代码解析-柴政以及网址2- 【泡泡机器人公开课】第三十九课:PnP算法简介与代码解析-柴政,OpenCV代码参考如博客:1- PNP algorithm,2- solvepnp详解,)即给定物体3D点集与对应的图像2D点集,之后进行姿态计算,求解出最终的初始化时对应的相机的位姿;其中相机位姿的表示采用四元数表示,(具体参考以下高翔博士的博客:1- 视觉SLAM中的数学基础 第一篇 3D空间的位置表示,2- 视觉SLAM中的数学基础 第二篇 四元数或者高翔博士的《视觉SLAM十四讲》这本书的物体三维空间的表示那一章节)。
(5)第五步,初始化得到了一开始的相机位姿后,不断的重复上述的匹配,跟踪,三角化,计算出每一帧图像对应的摄像机位姿,然后再计算出每两帧图像之间相机的运动变换矩阵(包括旋转矩阵与平移矩阵两部分),然后再利用图优化(参考以下博客1- 深入理解图优化与g2o:图优化篇,2- 深入理解图优化与g2o:g2o篇,3- g2o:一种图优化的C++框架,4- graph slam tutorial : g2o 的使用,5- G2o: A general framework for graph optimization,或者高翔博士的《视觉SLAM十四讲》这本书)的方法对估算出的结果做优化,得到更加精确和稳健的结果,最终得到相机的运动轨迹。

4)总结:

简单的说,这个系统的核心思想是,通过图像中跟踪匹配到的特征点的变化反推出相机的位置以及运动,并且用优化库对计算结果进行了优化,还增加了一些回环检测的模块加强系统的稳健性。这和人类在野外通过周围的景物确定自己的位置变化的思路很相似,都是先选定参照物,然后根据观察到的参照物的视野变化估计出自己的运动轨迹。

5)代码梳理分析相关博客与视频:

(1)整个系统的代码的梳理,可以参考系列博客:
- ORB-SLAM2详解(一)简介
- ORB-SLAM2详解(二)代码逻辑
- ORB-SLAM2详解(三)自动地图初始化
- ORB-SLAM2详解(四)跟踪
- ORB-SLAM2详解(五)局部建图
- ORB-SLAM2详解(六)闭环检测

(2)注释版代码:(吴博注释版)
paopaoslam / ORB-SLAM2注释版代码
(3)ORB-SLAM2系统以及代码新手入门讲解视频:
- 冯兵讲解的版本
orb-slam的简单讲解-冯兵
- 吴博讲解的版本
(视频1)ORB-SLAM2源码详解-吴博,
(视频2)ORB-SLAM2源码详解-吴博;
其中PPT可以另外单独下载,下载地址38ORB-SLAM2源码详解

2.ORB-SLAM是谁做的,它的项目源码地址是什么?

1)作者、论文、ORB-SLAM项目源码 :

ORB-SLAM是由Raul Mur-Artal,J. M. M. Montiel和Juan D. Tardos于2015年发表在IEEE Transactions on Robotics
(1)项目主页网址为:ORB-SLAM;
(2)论文地址为:ORB-SLAM: A Versatile and Accurate Monocular SLAM System. ;
(3)ORB-SLAM项目源码采用C++编写,运用到了OpenCV库,DBow库,g2o库,Eigen库,其中,ORB-SLAM2中还会用到Pangolin库,地址如下ORB-SLAM(说明:单目方案,ROS下的代码)。

2)ORB-SLAM2项目介绍以及源码地址:

(1)ORB-SLAM2ORB-SLAM的改进版本,它与ORB-SLAM的区别主要在于(参考知乎:ORB_SLAM与ORB_SLAM2的区别?还经常出现跟踪失败,跟踪失败的原因及解决方法)
- (a) 它提供了立体相机与RGBD相机的接口;
- (b) 摆脱了对ROS的依赖;
- (c) 显示模块改用了Pangolin
- (d) ORB-SLAM中做特征匹配时, 对特征尺度的计算方式貌似有误,在ORB-SLAM2的代码中进行了修正。

(2)源码地址如下:ORB-SLAM2;

3.本系列文章要对这个项目做哪些移植和修改?

1)win下移植:
因为项目需求,需要在win下运行算法,而原版的ORB-SLAM以及ORB-SLAM2都是在Linux系统下乃至在ROS框架下运行,所以需要将其移植到win下此处我们直接下载GitHub上别人修改好的win下的版本。
2)ORB读取格式的修改:
原版的ORB-SLAM项目中ORB字典的读取采用的是txt文本格式,读取速度非常慢,博主电脑上每次加载字典需要10秒左右,此处为了加速,我们采用Github上网友的方案,将源码修改一下,改成二进制格式读写ORB字典,最终能达到字典加载时间缩短到一两秒。
3)摄像头的接入,主函数的修改:
因为原版ORB-SLAM项目中的例子是基于ROS读取数据集中的图片,此处为了实际演示用,我们需要加入摄像头的数据采集部分的代码。
4)摄像头空间位置的数据的提取以及相应路标点的空间位置的数据的提取:
因为整个系统最终的要求是要输出相机位置以及特定障碍物的深度距离,以用于之后的导航以及别的模块的整合,此处我们需要考虑如何提取这些数据。

二、相关源码以及库的下载:

1.win下项目下载:

下载地址:ORBSLAM24Windows,具体下载以及编译问题请看后续博客。

2.二进制ORB字典读取方案源码地址:

下载地址:二进制读写ORBSLAM,此处不用下载源码,只需要观察这里是如何对`ORBSLAM2项目进行修改的并仿照它修改源码就可以,具体修改以及编译问题请看后续博客。


参考博客
- 参考博客1 sylvester的博客
- 参考博客2 半闲居士

你可能感兴趣的:(OpenCV,图像处理,SLAM)