02 RANSAC算法 及 Python 实现

文章目录

    • 02 RANSAC算法 及 Python 实现
      • 2.1 简介
      • 2.2 算法流程
      • 2.3 RANSAC 算法实现直线拟合
      • 2.4 利用 RANSAC 算法减少 ORB 特征点误匹配

02 RANSAC算法 及 Python 实现

2.1 简介

RANSAC (Random Sample Consensus,随机抽样一致)算法的 基本假设 是样本中包含正确数据(inliers即内点,可以被模型描述的数据),也包含异常数据(outliers 即外点,偏离正常范围很远、无法适应数学模型的数据),也就是说数据集中含有噪声。

我们的目的就是找出 使内点最多的模型参数(类似最小二乘法,最小二乘法试图找到满足所有点的参数,而 RANSAC 是为了消除误匹配,尽量找到更多内点,去除外点)。

2.2 算法流程

RANSAC 是通过反复选择数据集去估计出模型参数,一直迭代到估计出认为比较好的模型。

具体的实现步骤可以分为以下几步:

(1)选择出可以估计出模型的最小数据集;(对于直线拟合来说就是两个点,对于计算单应矩阵就是 4 个点);

(2)使用这个最小数据集计算出模型参数;

(3)将所有数据带入这个模型,计算并记录“内点”的数目(在误差允许范围内的点的数目);

(4)与之前记录的最好模型的“内点”数量进行比较,若表现更好,则将此模型更新为最优模型;

(5)重复以上步骤,直至达到最大迭代次数或“内点”数量满足要求。

2.3 RANSAC 算法实现直线拟合

02 RANSAC算法 及 Python 实现_第1张图片

# @Time : 2022/11/7 20:11
# @Author : xiao cong
# @Function : RANSAC 算法实现直线拟合

import numpy as np
import matplotlib.pyplot as plt
import random


ITERS = 1000            # 最大迭代次数
SIZE = 50               # 样本数量
RATIO = 0.6             # 期望为内点的比例
INLIERS = SIZE * RATIO  # 内点

# 生成样本数据
X = np.linspace(0, 5, SIZE)
Y = 2 * X + 5
for index in range(SIZE):
    sigma = np.random.uniform(-0.5, 0.5)  # 生成高斯噪声
    Y[index] += sigma


# 绘散点图
plt.figure()
plt.scatter(X, Y)
plt.xlabel("x")
plt.ylabel("y")

# 使用 RANSAC 算法估算模型
iter = 0  # 迭代次数
max_inliers = 0  # 先前最多内点数量
best_a = 0  # 最优参数
best_b = 0
error = 0.5  # 允许最小误差

while iter <= ITERS and max_inliers < INLIERS:

    # 随机选取两个点,计算模型参数
    random_index = random.sample(range(0, SIZE), 2)  # 返回索引列表
    x1 = X[random_index[0]]
    y1 = Y[random_index[0]]
    x2 = X[random_index[1]]
    y2 = Y[random_index[1]]

    a = (y2 - y1) / (x2 - x1)  # 斜率
    b = y1 - a * x1  # 截距
    inliers = 0  # 本次内点数量

    # 代入模型,计算内点数量
    for index in range(SIZE):
        y_estimate = a * X[index] + b
        if abs(Y[index] - y_estimate) <= error:
            inliers += 1

    if inliers >= max_inliers:
        best_a = a
        best_b = b
        max_inliers = inliers

    iter += 1


# 画出拟合直线
Y_estimate = best_a * X + best_b
plt.plot(X, Y_estimate, linewidth=2.0, color="r")
text = "best_a: " + str(round(best_a, 2)) + "\nbest_b:  " + str(round(best_b, 2)) + \
       "\nmax_inliers: " + str(int(max_inliers))
plt.text(3, 6, text, fontdict={'size': 10, 'color': 'r'})
plt.title("RANSAC")
plt.show()

2.4 利用 RANSAC 算法减少 ORB 特征点误匹配

特征点匹配会有很多误匹配的点,所以求出基础矩阵 F \boldsymbol{F} F,用它来做更精准的匹配。这里以 ORB 为例,FAST 特征点就是 RANSAC 算法的数据样本。

对极约束,得到

p 2 T F p 1 = 0 \boldsymbol{p_2^{\mathrm{T}}}\boldsymbol{F}\boldsymbol{p_1}=0 p2TFp1=0

其中, p 1 \boldsymbol{p_1} p1 p 2 \boldsymbol{p_2} p2 为匹配点的像素坐标 。

分别为 ORB_features.png*、all_matches.png、goodmatches.png、*after_RANSAC.png.

02 RANSAC算法 及 Python 实现_第2张图片

02 RANSAC算法 及 Python 实现_第3张图片

02 RANSAC算法 及 Python 实现_第4张图片
02 RANSAC算法 及 Python 实现_第5张图片

#include 
#include 
#include 


using namespace std;
using namespace cv;

int main()
{
    // 读取图像
    Mat img_01 = imread("/home/cong/slambook_code/test/img_01.png");
    Mat img_02 = imread("/home/cong/slambook_code/test/img_02.png");

    // 提取 ORB 特征点
    vector keypoints_01, keypoints_02;         // FAST 特征点
    Mat descriptors_01, descriptors_02;                  // BRIEF 描述子
    Ptr detector = ORB::create();       // 初始化
    Ptr descriptor = ORB::create();
    Ptr matcher = DescriptorMatcher::create("BruteForce-Hamming");

    //-- 第一步:检测 Oriented FAST 角点位置
    detector->detect(img_01, keypoints_01);
    detector->detect(img_02, keypoints_02);

    //-- 第二步:根据角点位置计算 BRIEF 描述子
    descriptor->compute(img_01, keypoints_01, descriptors_01);
    descriptor->compute(img_02, keypoints_02, descriptors_02);

    Mat outimg_01;
    drawKeypoints(img_01, keypoints_01, outimg_01, Scalar::all(-1), DrawMatchesFlags::DEFAULT);
    imwrite("ORB_features.png", outimg_01);
    imshow("ORB features", outimg_01);


    //-- 第三步:对两幅图像中的BRIEF描述子进行匹配,计算 Hamming 距离
    // matches 用来存储匹配点对的信息,包括
    //queryIdx:测试图像的特征点描述符的下标
    //trainIdx:样本图像的特征点描述符下标
    //distance:特征点描述子的欧式距离
    vector matches;
    matcher->match(descriptors_01, descriptors_02, matches);


    //-- 第四步:匹配点对筛选(距离过大的一对点将被认为误匹配)
    // 找出所有匹配之间的最小距离和最大距离, 即最相似的和最不相似的两组点之间的距离
    auto min_max = minmax_element(matches.begin(), matches.end(),
                                  [] (const DMatch &m1, const DMatch &m2) {return m1.distance < m2.distance;});

    double min_dist = min_max.first->distance;
    double max_dist = min_max.second->distance;

    //当描述子之间的距离大于两倍的最小距离时,即认为匹配有误.
    // 但有时候最小距离会非常小,设置一个经验值30作为下限.
    vector good_matches;
    for(int i = 0; i < descriptors_01.rows; i++)
    {
        if(matches[i].distance <= max(2*min_dist, 30.0))
            good_matches.push_back(matches[i]);
    }

    //-- 第五步:绘制匹配结果
    Mat img_match;
    Mat img_goodmatch;
    drawMatches(img_01, keypoints_01, img_02, keypoints_02, matches, img_match);
    drawMatches(img_01, keypoints_01, img_02, keypoints_02, good_matches, img_goodmatch);
    imwrite("all_matches.png", img_match);
    imwrite("good_matches.png", img_goodmatch);
    imshow("all matches", img_match);
    imshow("good matches", img_goodmatch);



    /*******************************************************************/
    // 下面用 RANSAC 算法去除误匹配
    // 主要分为三个部分:
    // 1)根据matches将特征点对齐,将坐标转换为float类型
    // 2)使用求基础矩阵方法 findFundamentalMat,得到RansacStatus
    // 3)根据RansacStatus来将误匹配的点也即RansacStatus[i]=0的点删除


    // 1)根据 matches 将特征点对齐(也就是 使对应的一对特征点的下标相同)
    vector R_keypoint_01, R_keypoint_02;        // 存储对应的特征点
    for(size_t i = 0; i < matches.size(); i++)
    {
        R_keypoint_01.push_back(keypoints_01[matches[i].queryIdx]);     // 存储img01中能与img02匹配的特征点的索引值
        R_keypoint_02.push_back(keypoints_02[matches[i].trainIdx]);
    }

    // 像素坐标转换成 float
    vector p01, p02;
    for(size_t i = 0; i < matches.size(); i++)
    {
        p01.push_back(R_keypoint_01[i].pt);          // 坐标
        p02.push_back(R_keypoint_02[i].pt);
    }

    // 利用基础矩阵剔除误匹配点
    vector RansacStatus;
    Mat Fundamental = findFundamentalMat(p01, p02, RansacStatus, FM_RANSAC);

    vector RR_keypoint_01, RR_keypoint_02;
    vector RR_matches;                         // 筛选后的匹配点
    int index = 0;
    for(size_t i = 0; i < matches.size(); i++)
    {
        if(RansacStatus[i] != 0)
        {
            RR_keypoint_01.push_back(R_keypoint_01[i]);
            RR_keypoint_02.push_back(R_keypoint_02[i]);
            matches[i].queryIdx = index;
            matches[i].trainIdx = index;
            RR_matches.push_back(matches[i]);
            index++;
        }
    }

    Mat img_RR_matches;
    drawMatches(img_01, RR_keypoint_01, img_02, RR_keypoint_02, RR_matches, img_RR_matches);
    imwrite("after_RANSAC.png", img_RR_matches);
    imshow("after RANSAC", img_RR_matches);
    waitKey(0);


    return 0;
}

你可能感兴趣的:(视觉SLAM十四讲,算法,SLAM)