EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry

EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry

    • Abstract
    • Introduction
    • The Proposed Method
    • Experimental Result
    • Conclusions

本文的主要创新点在于提出了俩种关键点信息用于提供代价函数中的重投影和像素亮度无误差信息的部分,同时结合IMU测量单元提高了系统的精度和鲁棒性。

Abstract

本文提出一种通过线性特征信息引导高区分度点特征的直接法结合IMU测量单元的视觉里程计系统。该系统相比传统的直接法而言对像素点位置的跟踪更加精确、稳定,整个系统的鲁棒性更高。

Introduction

该部分将传统的视觉里程计方案分为直接法和基于特征信息方法俩种,直接法精度更高且在建图方面更加有优势,基于特征信息的方案精度取决于特征信息的匹配、跟踪精度,该类型的方案依旧存在着跟踪丢失的可能性。
在特征信息类型的方案中基于线性特征信息的方案相比于特征点类型更加稳定,但会增加计算量,本文将线性信息和直接法相结合,同时引入IMU惯性测量信息使得整个视觉里程计系统更加稳定有效。
本文的主要贡献有:

  • 一种基于线性特征信息的且计算量较低的精确、可靠的视觉里程计;
  • 代价函数包括重投影误差、像素亮度误差和IMU测量信息的误差,使得结果更加精确;
  • 在加入IMU误差之前通过权重调整使得结果更加精确、稳定。

The Proposed Method

EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry_第1张图片与传统的视觉里程计系统相类似,该系统首先在图像信息中获取特征信息,通过特征信息优化位姿信息,输出位姿信息。

A.Feature Detection
EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry_第2张图片

特征信息短缺导致的跟踪丢失等问题依旧是当前视觉里程计的主要问题之一,基于edge的信息提取稳定性更好,在edge上进行特征点信息获取的方法主要有俩种,1)通过edge进行特征点引导获取(主要用于提供重投影误差信息);2)通过在edge上进行采样以获取足够多的特征点信息(主要提供像素亮度的误差信息)。其中通过edge对特征点的引导的方法具有以下的优点:

  • 具有更高的鲁棒性:通过该方法获取的特征点稳定性更好;
  • 复杂度降低:该方法获取的特征点数量相对较少,可以有效的降低复杂度。

B.IMU Preintegration Model
这一部分主要描述了IMU与积分的知识,通过IMU可以获取独立于图像信息的角度变化以及加速度变化向量,IMU坐标系、相机坐标系、世界坐标系分别表示为B\C\W,于是在 i , j i,j i,j俩帧之间对旋转、数度、位置进行预计分处理为
EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry_第3张图片

C.Motion Estimation
在位姿信息估计的部分,文中隐入了3种误差信息,包括重投影误差信息、像素亮度信息误差和IMU测量误差信息,整个系统的优化函数如下:
a r g m i n τ ( ∑ m E p h o t o ( m , j ) + E p r o j ( k , j ) + λ E I M U ( i , j ) ) argmin_\tau(\sum_mE_{photo}(m,j)+E_{proj}(k,j)+\lambda E_{IMU}(i,j)) argminτ(mEphoto(m,j)+Eproj(k,j)+λEIMU(i,j))
其中 λ > = 1 \lambda>=1 λ>=1,当获取特征信息满足要求时(主要是数量和精度) λ = 1 \lambda=1 λ=1,否则 λ > 1 \lambda>1 λ>1
像素亮度信息误差函数公式如下:
在这里插入图片描述假设在一帧中有 m m m个在edge上选取的关键点,(公式全是错,怎么发出来的???),该公式表示了匹配像素位置的像素亮度信息和投影位置像素的亮度信息之差。
重投影误差信息表示为
E p r o j ( k , j ) = ρ ( M k T ∑ k M k ) M k = x k − π ( X k C ) E_{proj}(k,j)=\rho(M_k^T\sum_kM_k)\\M_k=x_k-\pi(X_k^C) Eproj(k,j)=ρ(MkTkMk)Mk=xkπ(XkC)
该式表示第 k k k个特征信息对应的重投影误差信息。
通过IMU获取的误差信息公式表示为:
EIP-VIO: Edge-Induced Points based Monocular Visual-Inertial Odometry_第4张图片

Experimental Result

A.Quantitative Evaluations of Features Extraction
B.Comparison with State-of-the-art-Approaches

Conclusions

本文提出一种结合直接法和特征信息法的单目视觉里程计方案,通过在edge的基础选取更加有效的关键点进行位姿恢复,同时结合IMU测量的信息提升了系统的精度和鲁棒性。

你可能感兴趣的:(SLAM,位姿估计,视觉里程计,slam)