1.概述
前面介绍模板匹配的时候已经提到模板匹配时一种基于灰度的匹配方法,而基于特征的匹配方法有FAST、SIFT、SURF等。上面两篇文章已经介绍过使用Surf算法进行特征点检測以及使用暴力匹配(BruteForceMatcher)和近期邻匹配(FLANN)两种匹配方法。接下来将更深一步介绍利用Surf检測到的特征点以及匹配对进行图像匹配.
利用Surf算法进行图像匹配其一般流程为:检測物体特征点->计算特征点描写叙述子->使用BurteForceMatcher或FLANN进行特征点匹配->匹配到的特征点进行透视变换findHomography()->透视矩阵变换perspectiveTransform()->绘制匹配物体轮廓
2. OpenCV API
透视变换
findHomography()
这个函数的作用是在图像原平面和目标图像平面之间寻找并返回一个透视变换矩阵H,例如以下:
所以反向投影误差
最小化。假设參数metchod被设置为默认值0,改函数使用全部的点以简单的最小二乘法计算一个初始的单应预计。能够简单理解为透视变换矩阵就是把一幅图像从一个空间变换到还有一个空间所须要进行旋转平移而进行加权的矩阵。
可是并非全部的点匹配对(srcPoints_i, dstPoints_i)都适合使用刚性的透视变换(有些异常值),这样变换得到的透视矩阵误差较大。
在这样的情况下能够使用两种鲁棒的方法RANSAC和LMeDS,尝试使用非常多相应匹配点的随机子集。使用该子集和最简单的最小二乘法预计单应性矩阵。然后计算得到的透视变换矩阵的质量/好坏(quality/goodness),然后使用最佳子集来计算单应性矩阵的初始预计矩阵和内在值/异常值(inliers/outliers)的掩码。
不管方法是否具有鲁棒性,使用Levenberg-Marquardt方法进一步精确计算单应性矩阵(假设方法具有鲁棒性仅使用内在值(inline))来降低再投影误差。
RANSAC差点儿能够处理随意比例的异常值,可是它须要一个阈值来区分内在值还是异常值。LMeDS不须要不论什么阈值,可是仅仅有在内在值比例大于50%的情况下才干准确计算。假设没有太多异常值,噪声有比較小的情况下使用默认方法就可以
函数用来查找初始的内在和外在矩阵,透视变换矩阵确定了一个比例.不管何时假设不能预计H矩阵则函数将返回一个空矩阵
Mat cv::findHomography ( InputArray srcPoints,
InputArray dstPoints,
int method = 0,
double ransacReprojThreshold = 3,
OutputArray mask = noArray(),
const int maxIters = 2000,
const double confidence = 0.995
)
srcPoints:原平面相应点,能够是CV_32FC2或vector类型的矩阵。
dstPoints:目标平面相应点,能够是CV_32FC2或vector类型的矩阵
method:用于计算矩阵的方法,可选方法上面已经介绍过有默认值0,CV_RANSAC和CV_LMEDS
ransacReprojThreshold:有默认值3,区分内在值还是异常值的阈值点,仅仅在RANSAC方法实用。当||dstPoints-convertPointsHomogeneous(H*srcPoints)||>ransacReprojThreshold,这个点就会被觉得是异常值(outlier).假设srcPoints和dstPoints是以像素为单位。则參数的取值范围一般在1-10之间。
mask:可选參数,有默认值noArray()。通过鲁棒性方法(RANSAC或LMEDS)设置输出掩码。
函数还有一种定义形式例如以下:
Mat cv::findHomography ( InputArray srcPoints,
InputArray dstPoints,
OutputArray mask,
int method = 0,
double ransacReprojThreshold = 3
)
求得的透视矩阵是一个3x3的变换矩阵。
perspectiveTransform()
函数能够进行向量透视矩阵变换。
void cv::perspectiveTransform ( InputArray src,
OutputArray dst,
InputArray m
)
src:双通道或三通道浮点型原图像或数组。每一个元素都是二维或三维可被转换的向量。
dst:目标数组或图像,与原图像有同样的尺寸和类型
m:变换矩阵,为3x3或4x4的浮点型矩阵
3.演示样例代码
#include
#include
#include
#include
#include
#include
#include
using namespace std;
using namespace cv;
int main()
{
Mat image_object = imread("match_src.jpg", IMREAD_GRAYSCALE);
Mat image_scene = imread("match_dst.jpg", IMREAD_GRAYSCALE);
//推断图像是否载入成功
if (image_object.empty() || image_scene.empty())
{
cout << "图像载入失败";
return -1;
}
else
cout << "图像载入成功..." << endl << endl;
//检測特征点
const int minHessian = 700;
SurfFeatureDetector detector(minHessian);
vector keypoints_object, keypoints_scene;
detector.detect(image_object, keypoints_object);
detector.detect(image_scene, keypoints_scene);
//计算特征点描写叙述子
SurfDescriptorExtractor extractor;
Mat descriptors_object, descriptors_scene;
extractor.compute(image_object, keypoints_object, descriptors_object);
extractor.compute(image_scene, keypoints_scene, descriptors_scene);
//使用FLANN进行特征点匹配
FlannBasedMatcher matcher;
vector matches;
matcher.match(descriptors_object, descriptors_scene, matches);
//计算匹配点之间最大和最小距离
double max_dist = 0;
double min_dist = 100;
for (int i = 0; i < descriptors_object.rows; i++)
{
double dist = matches[i].distance;
if (dist < min_dist)
{
min_dist = dist;
}
else if (dist > max_dist)
{
max_dist = dist;
}
}
printf("Max dist: %f \n", max_dist);
printf("Min dist: %f \n", min_dist);
//绘制“好”的匹配点
vector good_matches;
for (int i = 0; i < descriptors_object.rows; i++)
{
if (matches[i].distance<2*min_dist)
{
good_matches.push_back(matches[i]);
}
}
Mat image_matches;
drawMatches(image_object, keypoints_object, image_scene, keypoints_scene, good_matches, image_matches,
Scalar::all(-1), Scalar::all(-1), vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS);
//定位“好”的匹配点
vector obj;
vector scene;
for (int i = 0; i < good_matches.size(); i++)
{
//DMathch类型中queryIdx是指match中第一个数组的索引,keyPoint类型中pt指的是当前点坐标
obj.push_back(keypoints_object[good_matches[i].queryIdx].pt);
scene.push_back(keypoints_scene[good_matches[i].trainIdx].pt);
}
Mat H = findHomography(obj, scene, CV_RANSAC);
vector obj_corners(4), scene_corners(4);
obj_corners[0] = cvPoint(0, 0);
obj_corners[1] = cvPoint(image_object.cols, 0);
obj_corners[2] = cvPoint(image_object.cols, image_object.rows);
obj_corners[3] = cvPoint(0, image_object.rows);
perspectiveTransform(obj_corners, scene_corners, H);
//绘制角点之间的直线
line(image_matches, scene_corners[0] + Point2f(image_object.cols, 0),
scene_corners[1] + Point2f(image_object.cols, 0), Scalar(0, 0, 255), 2);
line(image_matches, scene_corners[1] + Point2f(image_object.cols, 0),
scene_corners[2] + Point2f(image_object.cols, 0), Scalar(0, 0, 255), 2);
line(image_matches, scene_corners[2] + Point2f(image_object.cols, 0),
scene_corners[3] + Point2f(image_object.cols, 0), Scalar(0, 0, 255), 2);
line(image_matches, scene_corners[3] + Point2f(image_object.cols, 0),
scene_corners[0] + Point2f(image_object.cols, 0), Scalar(0, 0, 255), 2);
//输出图像
namedWindow("匹配图像", WINDOW_AUTOSIZE);
imshow("匹配图像", image_matches);
waitKey(0);
return 0;
}
程序说明
在定位匹配点中用到了DMatch的queryIdx、trainIdx成员变量和keyPoint的成员变量pt,做个说明:
DMatch有三个构造函数。当中一组例如以下:
cv::DMatch::DMatch ( int _queryIdx, //在对描写叙述子匹配时。第一组特征点的索引
int _trainIdx, //在对描写叙述子匹配时,第二组特征点的索引
int _imgIdx, //多个图像中图像的索引
float _distance //两个特征向量间的欧氏距离,越小表明匹配度越高
)
对于keyPoint类有两种构造形式例如以下:
cv::KeyPoint::KeyPoint ( Point2f _pt,
float _size,
float _angle = -1,
float _response = 0,
int _octave = 0,
int _class_id = -1
)
cv::KeyPoint::KeyPoint ( float x,
float y,
float _size,
float _angle = -1,
float _response = 0,
int _octave = 0,
int _class_id = -1
)
两种形式在本质上是一样的,仅仅是第一种形式中的特征点坐标pt在另外一种形式中以x和y的形式给出。
pt关键点坐标
size是关键点邻域直径
angle特征点方向,范围为[0,360)。负值表示不使用
response关键点检測器对于关键点的响应程度
octave关键点位于图像金字塔的层
class_id用于聚类的id
执行结果