本篇是对基于opencv实现图像配准的实现笔记。
可以参考如下流程:
大致操作: 1、先拍摄两张有相同区域的图片,注意图片尺寸保持一致。 2、分别提取出图像的特征点(如果图像质量很差的话,可能需要先做些预处理操作)。 3、根据图像特征点,对它们做特征点匹配。 4、筛选出比较好的特征匹配点。 5、根据这些特征匹配点计算出畸变仿射矩阵。 6、使用算出来的矩阵进行图像匹配。
可以参考如下资料:使用FLANN进行特征点匹配 核心的大致代码为:
//-- Step 1: Detect the keypoints using SURF Detector
int minHessian = 800;
SurfFeatureDetector detector(minHessian );
std::vector keypoints_1, keypoints_2;
detector.detect(src1, keypoints_1);
detector.detect(src2, keypoints_2);
int i, count = 0;
src1和src2分别为配准测试图片,检测出来的图像特征点保存在:keypoints_1和keypoints_2中。 注意结构:keypoints_1[i].pt.x和keypoints_1[i].pt.x :i表示当前为第几个特征点,x、y为该特征点坐标。
同样可以看前面的参考资料,核心代码如下:
//-- Step 2: Calculate descriptors (feature vectors)
SurfDescriptorExtractor extractor;
Mat descriptors_1, descriptors_2;
extractor.compute(src1, keypoints_1, descriptors_1);
extractor.compute(src2, keypoints_2, descriptors_2);
//-- Step 3: Matching descriptor vectors with a brute force matcher
FlannBasedMatcher matcher;
std::vector< DMatch > matches;
matcher.match(descriptors_1, descriptors_2, matches);
计算出来的匹配信息保存在matches中。 注意:matches[i].queryIdx、matches[i].trainIdx:i表示当前为第几组匹配点,queryIdx表示该匹配点对应在keypoints_1上的存储位置, trainIdx表示该匹配点对应在keypoints_2上的存储位置。
具体代码如下:
//-- Step 4: Find good matcher
double max_dist = 0; double min_dist = 100;
for( int i = 0; i < descriptors_1.rows; i++ ){
double dist = matches[i].distance;
if(dist < min_dist )
min_dist = dist;
if(dist > max_dist )
max_dist = dist;
}
for(i = 0; i < descriptors_1.rows; i++ ){
if(matches[i].distance < 2*min_dist){
count += 1;
good_matches.push_back(matches[i]);
good_keypoints_1.push_back(keypoints_1[matches[i].queryIdx]);
good_keypoints_2.push_back(keypoints_2[matches[i].trainIdx]);
}
}
根据特征匹配之间的精度误差matches[i].distance,去掉精度误差较高的匹配点。然后将好的匹配点对应的保存到good_keypoints_1和 good_keypoints_2中。
主要是使用opencv函数:estimateRigidTransform来实现。核心代码如下:
std::vector frame1_features_ok, frame2_features_ok;
tmpPoint.x = good_keypoints_1[i].pt.x;
tmpPoint.y = good_keypoints_1[i].pt.y;
frame1_features_ok.push_back(tmpPoint);
tmpPoint.x = good_keypoints_2[i].pt.x;
tmpPoint.y = good_keypoints_2[i].pt.y;
frame2_features_ok.push_back(tmpPoint);
mat = estimateRigidTransform(frame1_features_ok, frame2_features_ok, true);
为了适配函数estimateRigidTransform输入参数,再分别将筛选出来比较好的匹配点存入到frame1_features_ok和frame2_features_ok中, 函数返回的mat中,存储的就是畸变仿射矩阵。
使用函数cvWarpAffine根据前面算出的仿射矩阵进行仿射变化。
IplImage img = mat;
cvConvert(&img, warp_mat);
cvWarpAffine(&ipI1, &ipIdst, warp_mat);
效果演示1: 原始图像1 原始图像2
图像1去配准图像2的结果
效果演示2: 原始图像1 原始图像2
图像1去配准图像2的结果
对应实例代码下载:http://download.csdn.net/detail/u011630458/9414194