Vins-Fusion整体框架,数据流分析

一、VINS Fusion

VINS Fusion是一种基于优化的多传感器状态估计器,可实现自主应用(无人机、汽车和AR/VR)的精确自我定位。VINS Fusion是VINS Mono的扩展,支持多种视觉惯性传感器类型(单摄像机+IMU、双目相机+IMU,或纯双目相机),且支持将VINS与GPS融合。主要特点如下:
(1)支持多传感器(双目相机/单目相机+IMU/双目相机+IMU)
(2)实时camera-imu外参校准(相机和IMU之间的转换)
(3)实时同步时间校准(相机和IMU之间的时间偏移)
(4)闭环可视化
下图为VINS Fusion整体框架
Vins-Fusion整体框架,数据流分析_第1张图片
从VINS Fusion整体框架,可以很清楚数据流。分为三个节点vins_estimator,loop_fusion,global_fusion,本文先重点分析vins_estimator。
根据框架图,vins_estimator主要完成:1.前端,基于LK光流法的特征点跟踪函数featureTracker、IMU预积分得到当前帧位姿processIMU、三角化得到路标点(特征点位置)trianglate;2.后端优化optimization,滑窗优化位姿,位置此外还会优化零偏、外参、相机与imu时差,滑窗、边缘化slideWindow。3.初始化,完成位姿、位置、零偏初始化计算,也相当于要走一遍优化过程。
前端还比较简单,感觉重点在后端优化,很复杂。。。

参考:
https://github.com/HKUST-Aerial-Robotics/VINS-Fusion
https://blog.csdn.net/u010196944/article/details/127239342
https://blog.csdn.net/u010196944/article/details/127238908
https://blog.csdn.net/u010196944/article/details/127240169

你可能感兴趣的:(slam,计算机视觉,自动驾驶,机器人)