编程环境:
VS + OpenCV + C++
完整代码已经更新至GitHub,欢迎fork~GitHub链接
声明:创作不易,未经授权不得复制转载
statement:No reprinting without authorization
内容概述:
- 基于OpenCV实现图像拼接,可以对两张或更多的输入图像,将图像对齐后拼接成一张全景图。( 相关函数: findHomography, warpPerspective )
- 对包含一个平面目标的视频,跟踪由用户指定的平面上的一个四边形区域,并替换区域内的视频内容。
— 被跟踪的四边形区域由用户在第1帧指定,或者基于给 定的模板进行识别;
— 优化跟踪的稳定性和速度;
一、全景图拼接
实验步骤过程
1、对每幅图进行特征点提取
2、对特征点进行匹配,并进行筛选
3、进行图像配准
4、把图像拷贝到另一幅图像的特定位置,裁剪尺寸处理
5、对重叠边界处理优化,图像融合(去裂缝处理)
测试拼接所用的原图片:
(1)特征点提取
• 提取特征点有sift、surf、harris角点、ORB等常用方法
• 考虑到精确度、稳定性和速度,本实验中采用了SIFT和SURF的方法
• SURF精确度和稳定性不及SIFT,但是其综合能力还是优越一些,在速度方面有了明显的提高(速度是SIFT的3倍)
• 注:opencv stitch选择的特征检测方式第一选择是SURF,第二选择才是ORB
(2)获取匹配点与筛选
1、获取:
使用opencv的 FlannBasedMatcher(更快找到最近邻近似匹 配,不尝试所有可能的匹配,不一定最佳,保证相对好的匹配和速度,BFMatcher)
然后调用 KNNMatch ,可设置K = 2 ,即对每个匹配返回两个最近邻描述符,仅当第一个匹配与第二个匹配之间的距离足够小时,才认为这是一个匹配。得到所有匹配点。
2、筛选:(自定义goodMatch+二次匹配)
(1)只保留匹配点中的两点距离较小的:
matchePoints[i][0].distance<0.4*matchePoints[i][1].distance
(2)进行二次匹配:img1->img2 goodmatch img2->img1
得到更多好的匹配点(参考opencv自带的拼接算法stitch)
• 进行特征点的检测和匹配点筛选后的结果:
左图为将Pic02.jpg和Pic03.jpg合并得到dst01.jpg时打印的信息,有图将Pic01.jpg和dst01.jpg合并拼接的信息
• 进行特征点的检测和匹配点筛选后的结果
(3)进行图像配准与拷贝
• 先利用 findHomography 函数得到投影映射矩阵
(也可以使用getPerspectiveTransform方法获得透视变换矩阵,不过要求只能有4个点,效果稍差)
• 计算配准图的四个顶点坐标
• 调用 warpPerspective 变换另一幅图像,最后设置好尺寸,使用copyTo完成拼接
1、转换后tran.jpg
2、初步拼接后图片
(4)边界处理优化
• 优化两图的连接处,使得拼接自然:
• 策略:(修改alpha通道值)
如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据
否则将img1中像素的权重,设置为与当前处理点距重叠区域左边界的距离成正比的大小
//优化两图的连接处,使得拼接自然
void OptimizeSeam(Mat& img1, Mat& trans, Mat& dst)
{
int start = MIN(corners.left_top.x, corners.left_bottom.x);//开始位置,即重叠区域的左边界
double processWidth = img1.cols - start;//重叠区域的宽度
int rows = dst.rows;
int cols = img1.cols; //注意,是列数*通道数
double alpha = 1;//img1中像素的权重
for (int i = 0; i < rows; i++)
{
uchar* p = img1.ptr(i); //获取第i行的首地址
uchar* t = trans.ptr(i);
uchar* d = dst.ptr(i);
for (int j = start; j < cols; j++)
{
//如果遇到图像trans中无像素的黑点,则完全拷贝img1中的数据
if (t[j * 3] == 0 && t[j * 3 + 1] == 0 && t[j * 3 + 2] == 0)
{
alpha = 1;
}
else
{
//img1中像素的权重,与当前处理点距重叠区域左边界的距离成正比,实验证明,这种方法确实好
alpha = (processWidth - (j - start)) / processWidth;
}
d[j * 3] = p[j * 3] * alpha + t[j * 3] * (1 - alpha);
d[j * 3 + 1] = p[j * 3 + 1] * alpha + t[j * 3 + 1] * (1 - alpha);
d[j * 3 + 2] = p[j * 3 + 2] * alpha + t[j * 3 + 2] * (1 - alpha);
}
}
}
1、最终效果图一:
opencv stitch效果图:
2、最终效果图二:
opencv stitch效果图:
二、基于平面跟踪的AR
(1)实验内容步骤
• 打开视频对第一帧进行处理,交互确定四边形的初始点
• 框定进行特征检测与匹配的局部区域,加速匹配计算变换矩阵
• 对视频流每帧进行处理计算出矩阵后得到新的四个顶点坐标(perspectiveTransform)再次利用findHomography和warpPerspective将视频进行嵌入
(2)优化及一些问题
1、框定局部区域可以加速计算并派出一些干扰,来求解homograph,区域太小会导致计算出的匹配点太少,误差较大,造成晃动
• 优化策略:框定具有明显
特征的区域,进一步优化
筛选匹配点,自定义
的good match可以调高阈值,
适当增加匹配点的数量
2、计算变换矩阵时,并不将当前帧与前一帧作为输入,而是将之前存储的base帧与当前帧输入,并且每隔一定帧数(10帧左右),更新base帧,同时更新基准顶点坐标
1、优点:可以提高稳定性,加速计算,提前保存base帧的特征点,不用重复计算。
2、用前后帧或更新过快的话可能会导致意外的错误大量累积,每次更新的顶点都在上一次误差上加大,同时更新过慢的话,会由于图片场景变化过大,得到的匹配点数目越来越少,导致计算出的误差较大,不精准。
3、解决策略:调参!实验发现- 每隔10-12帧更新一次,- 结果较好,比较稳定
3、优化匹配点问题:
knnMatch + goodmatch + RANSAC(封装在findHomography中)
• 核心代码示例:
while (true) {
video >> curImg; myvideo >> inImg;
if (!inImg.data||!curImg.data || waitKey(pauseTime) == 27) //图像为空或Esc键按下退出播放
{
break;
}
im_temp = curImg.clone();
vimg = curImg.clone();
//Mat curPart = curImg(Rect(originalPoint, processPoint));
//h = getmyHomographMat(lastPart, curPart);
h = getmyHomographMat(FstImg, curImg);
//cout << "变换矩阵为:\n" << h << endl << endl; //输出映射矩阵
perspectiveTransform(data.points,CURponits, h);
//cout << "size data point :" << data.points.size() << endl;
Mat HH = findHomography(pts_src, CURponits);
warpPerspective(inImg, inImg, HH, curImg.size());
for (int i = 0; i < 4; i++)
{
pts_dst[i] = CURponits[i];
}
fillConvexPoly(vimg, pts_dst, 4, Scalar(0), CV_AA);
shImg = vimg + inImg;
//不去更新对比图片,如果每次在上一次的点基础上变换,会导致误差不断累积
//imshow("result", shImg);
count_frame++;
if (count_frame % 10 == 0) {
FstImg = im_temp;
//lastPart = im_temp(Rect(originalPoint, processPoint));//提升速度
data.points = CURponits;
}
writerr.write(shImg);
//shImg.release();
}
(3)视频成果:
视频链接
声明:创作不易,未经授权不得复制转载
statement:No reprinting without authorization