图像拼接中看到了特征匹配的部分,特征匹配主要是特征点的匹配。在特征点匹配的时候,首先进行粗匹配,粗匹配通常是进行一对匹配点进行对比,误差越小越可能是一对匹配点;精匹配方法中,我们可以用到RANSAC(Random Sample Consensus 随机抽样一致性)算法。
RANSAC可以用于图片的拼接技术。在多幅图像合成时,事先会在待合成的图片中提取一些关键的特征点。计算机视觉的研究表明,不同视角下物体往往可以通过一个透视矩阵(单应矩阵)(3X3或2X2)的变换而得到。RANSAC被用于拟合这个模型的参数(矩阵各行列的值),由此便可识别出不同照片中的同一物体。
(选自:https://blog.csdn.net/l297969586/article/details/52328884)
Ransac算法中要用四对特征点对构建一个单应矩阵,关于单应矩阵的介绍参考博客:(https://blog.csdn.net/zhaocj/article/details/78799194)
我们可以理解为,粗匹配是从两幅图像所提取的特征集中,找到特征点之间相对应的特征点对;精匹配是在粗匹配的基础上,再剔除一些不正确的匹配点对。
RANSAC算法步骤:
1.随机选取四对匹配点,计算出一个临时模型参数(单应矩阵)。
2.用该模型参数去测试匹配点对集,统计误差在允许范围内的匹配点对数目(即内点数)。
3.当内点数目占到指定比例时,则认为所选取的匹配点对是合理的。
第一步选取的匹配点对合理: 根据内点信息重新计算得到最终的模型参数。
第一步选取的匹配点对不合理:重新选取匹配点对,重复进行模型参数计算,直到选取的特征点对合理。
---------------------------------------------------------------------------
代码来源以及Ransac算法介绍:http://blog.csdn.net/luoshixian099/article/details/50217655
实例代码如下:OpenCV中此功能通过调用findHomography函数调用
#include
#include "opencv2/opencv.hpp"
#include "opencv2/core/core.hpp"
#include "opencv2/features2d/features2d.hpp"
#include "opencv2/highgui/highgui.hpp"
using namespace cv;
using namespace std;
int main(int argc, char** argv)
{
Mat obj = imread("obj.jpg"); //载入目标图像
Mat scene = imread("scene.jpg"); //载入场景图像
if (obj.empty() || scene.empty())
{
cout << "Can't open the picture!\n";
return 0;
}
vector obj_keypoints, scene_keypoints;
Mat obj_descriptors, scene_descriptors;
ORB detector; //采用ORB算法提取特征点
detector.detect(obj, obj_keypoints);
detector.detect(scene, scene_keypoints);
detector.compute(obj, obj_keypoints, obj_descriptors);
detector.compute(scene, scene_keypoints, scene_descriptors);
BFMatcher matcher(NORM_HAMMING, true); //汉明距离做为相似度度量
vector matches;
matcher.match(obj_descriptors, scene_descriptors, matches);
Mat match_img;
drawMatches(obj, obj_keypoints, scene, scene_keypoints, matches, match_img);
imshow("滤除误匹配前", match_img);
//保存匹配对序号
vector queryIdxs(matches.size()), trainIdxs(matches.size());
for (size_t i = 0; i < matches.size(); i++)
{
queryIdxs[i] = matches[i].queryIdx;
trainIdxs[i] = matches[i].trainIdx;
}
Mat H12; //变换矩阵
vector points1;
KeyPoint::convert(obj_keypoints, points1, queryIdxs);
vector points2;
KeyPoint::convert(scene_keypoints, points2, trainIdxs);
int ransacReprojThreshold = 5; //拒绝阈值
H12 = findHomography(Mat(points1), Mat(points2), CV_RANSAC, ransacReprojThreshold);
vector matchesMask(matches.size(), 0);
Mat points1t;
perspectiveTransform(Mat(points1), points1t, H12);
for (size_t i1 = 0; i1 < points1.size(); i1++) //保存‘内点’
{
if (norm(points2[i1] - points1t.at((int)i1, 0)) <= ransacReprojThreshold) //给内点做标记
{
matchesMask[i1] = 1;
}
}
Mat match_img2; //滤除‘外点’后
drawMatches(obj, obj_keypoints, scene, scene_keypoints, matches, match_img2, Scalar(0, 0, 255), Scalar::all(-1), matchesMask);
//画出目标位置,场景图片矩形
std::vector obj_corners(4);
obj_corners[0] = cvPoint(0, 0); obj_corners[1] = cvPoint(obj.cols, 0);
obj_corners[2] = cvPoint(obj.cols, obj.rows); obj_corners[3] = cvPoint(0, obj.rows);
std::vector scene_corners(4);
perspectiveTransform(obj_corners, scene_corners, H12);
line(match_img2, scene_corners[0] + Point2f(static_cast(obj.cols), 0),
scene_corners[1] + Point2f(static_cast(obj.cols), 0), Scalar(0, 0, 255), 2);
line(match_img2, scene_corners[1] + Point2f(static_cast(obj.cols), 0),
scene_corners[2] + Point2f(static_cast(obj.cols), 0), Scalar(0, 0, 255), 2);
line(match_img2, scene_corners[2] + Point2f(static_cast(obj.cols), 0),
scene_corners[3] + Point2f(static_cast(obj.cols), 0), Scalar(0, 0, 255), 2);
line(match_img2, scene_corners[3] + Point2f(static_cast(obj.cols), 0),
scene_corners[0] + Point2f(static_cast(obj.cols), 0), Scalar(0, 0, 255), 2);
imshow("滤除误匹配后", match_img2);
waitKey(0);
return 0;
}
代码实现的效果:
---。