港科大vins-fusion初探

SLAM新手,欢迎讨论。
关于vins_fusion的博客:
1.初探:https://blog.csdn.net/huanghaihui_123/article/details/86518880
2.vio主体: https://blog.csdn.net/huanghaihui_123/article/details/86610562
3.vioGPS融合框架: https://blog.csdn.net/huanghaihui_123/article/details/87183055
4.回环检测loop_fusion主体:https://blog.csdn.net/huanghaihui_123/article/details/87357488
5.imu在vins里的理解:https://blog.csdn.net/huanghaihui_123/article/details/87713083
6.vio中processThread线程:https://blog.csdn.net/huanghaihui_123/article/details/87974670
7.vins-回环检测单独剥离运行:https://blog.csdn.net/huanghaihui_123/article/details/88534266
8.同步imu数据以及相机特征点帧数据代码逻辑:https://blog.csdn.net/huanghaihui_123/article/details/103032782
9.vins中的坐标系变换及g2r函数: https://blog.csdn.net/huanghaihui_123/article/details/103075107

vins-fusion

港科大在2019年1月12号发布了Vins-fusion,从2017年发布的Vins-mono:单目+IMU,这次晋级了vins-fusion,demo中主要给出了四个版本:

(1)单目+imu
(2)纯双目
(3)双目+imu
(4)双目+imu+GPS
地址为:
https://github.com/HKUST-Aerial-Robotics/VINS-Fusion

双目SLAM对比与之前单目的slam,主要一个好处在于初始化过程中,可以静止进行初始化。另一方面由于尺度信息不一定完全依靠IMU,因此不会造成尺度不可关的情况。但是由于视觉误匹配等各种原因,造成实际上双目的精度会比单目来的差一丢丢。不过鲁棒性上考虑,双目明显优于单目。

其中港科大提供了自己在小车上采集的car.bag。在本地运行后,发现确实牛逼。
中间有一小段几乎全黑的情况,定位也没有飘走。
港科大vins-fusion初探_第1张图片
本来以为这个数据包如果运行vins mono,会跑飞,因为之前沈劭劼讲座中提到单目imu如果长期均速,或者在平面内运动,由于IMU没有读数,会造成尺度的不客观,但是,自己用这个car.bag运行单目的程序,发现效果依然很好,所以就有些不大明白。欢迎赐教。
港科大vins-fusion初探_第2张图片
下面这个是增加GPS的室外定位,拿了KITTI的数据集来进行测试,KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的计算机视觉算法评测数据集。

港科大vins-fusion初探_第3张图片
大致看了代码,对比与之前的vinsmono,主要增加了global_fusion包,用来融合GPS以及视觉IMU定位的结果。代码结构的话,之前的pose_graph节点更名为loop_fusion,之前的feature_track节点融合进vins_estimator内部。vins_estimator中的factor残差项增加了很多。主要是视觉的残差项增加。

你可能感兴趣的:(SLAM)