视觉SLAM学习笔记(二)

视觉里程计

前边我省略了大量用数学知识来描述的内容,比如三维世界中刚体运动的描述方式,包括旋转矩阵,旋转向量,欧拉角,四元数等,但是我们在下边仍然要去自己学习。
视觉里程计的主流方法是特征点法,顾名思义,即从图像中选取比较有代表性的点,观察各个图像中这些点的位置来判断物体的移动。下面只介绍几种常用的特征点。

ORB特征匹配

ORB特征由关键点和描述子组成,提取ORB特征分为以下几个步骤:

  1. FAST角点提取,找出图像中的角点。它的主要思想是如果一个像素与邻域的像素差别较大,那么它很可能是角点。
  2. BRIEF描述子,在提取完关键点后,我们对每个点计算其描述子。BRIEF是一种二进制描述子,它通过对比关键点附件两个像素大小关系来得到,适用于实时的图像匹配。
  3. 特征匹配是最为关键的一步,有暴力匹配法和快速近似最近邻算法。通过对图像与图像或者图像与地图之间的描述子进行准确匹配,我们可以为后续的姿态估计,优化等操作减轻大量负担,OPENCV中已经集成了这些算法,下面我们将通过代码来实现它。
#include 
#include 
#include 
#include 

using namespace std;
using namespace cv;

int main ( int argc, char** argv )
{
    if ( argc != 3 )
    {
        cout<<"usage: feature_extraction img1 img2"< keypoints_1, keypoints_2;
    Mat descriptors_1, descriptors_2;
    Ptr detector = ORB::create();
    Ptr descriptor = ORB::create();
    // Ptr detector = FeatureDetector::create(detector_name);
    // Ptr descriptor = DescriptorExtractor::create(descriptor_name);
    Ptr matcher  = DescriptorMatcher::create ( "BruteForce-Hamming" );

    //-- 第一步:检测 Oriented FAST 角点位置
    detector->detect ( img_1,keypoints_1 );
    detector->detect ( img_2,keypoints_2 );

    //-- 第二步:根据角点位置计算 BRIEF 描述子
    descriptor->compute ( img_1, keypoints_1, descriptors_1 );
    descriptor->compute ( img_2, keypoints_2, descriptors_2 );

    Mat outimg1;
    drawKeypoints( img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT );
    imshow("ORB特征点",outimg1);

    //-- 第三步:对两幅图像中的BRIEF描述子进行匹配,使用 Hamming 距离
    vector matches;
    //BFMatcher matcher ( NORM_HAMMING );
    matcher->match ( descriptors_1, descriptors_2, matches );

    //-- 第四步:匹配点对筛选
    double min_dist=10000, max_dist=0;

    //找出所有匹配之间的最小距离和最大距离, 即是最相似的和最不相似的两组点之间的距离
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        double dist = matches[i].distance;
        if ( dist < min_dist ) min_dist = dist;
        if ( dist > max_dist ) max_dist = dist;
    }
    
    // 仅供娱乐的写法
    min_dist = min_element( matches.begin(), matches.end(), [](const DMatch& m1, const DMatch& m2) {return m1.distancedistance;
    max_dist = max_element( matches.begin(), matches.end(), [](const DMatch& m1, const DMatch& m2) {return m1.distancedistance;

    printf ( "-- Max dist : %f \n", max_dist );
    printf ( "-- Min dist : %f \n", min_dist );

    //当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.但有时候最小距离会非常小,设置一个经验值30作为下限.
    std::vector< DMatch > good_matches;
    for ( int i = 0; i < descriptors_1.rows; i++ )
    {
        if ( matches[i].distance <= max ( 2*min_dist, 30.0 ) )
        {
            good_matches.push_back ( matches[i] );
        }
    }

    //-- 第五步:绘制匹配结果
    Mat img_match;
    Mat img_goodmatch;
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, matches, img_match );
    drawMatches ( img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch );
    imshow ( "所有匹配点对", img_match );
    imshow ( "优化后匹配点对", img_goodmatch );
    waitKey(0);

    return 0;
}

今天的分享就到这里,谢谢大家!

你可能感兴趣的:(视觉SLAM学习笔记(二))