全景图像:
同一位置(即图像的照相机位置相同)拍摄的两幅或者多幅图像是单应性相关的。
我们经常使用该约束将很多图像缝补起来,拼成一个大的图像
将SIFT应用到图像拼接上,根据特征点匹配的方式,则利用这些匹配的点来估算单应矩阵使用RANSAC算法,也就是把其中一张通过个关联性和另一张匹配的方法。通过单应矩阵H,可以将原图像中任意像素点坐标转换为新坐标点,转换后的图像即为适合拼接的结果图像。
可以简单分为以下几步:
1.根据给定图像/集,实现特征匹配。
2.通过匹配特征计算图像之间的变换结构。
3.利用图像变换结构,实现图像映射。
4.针对叠加后的图像,采用APAP之类的算法,对齐特征点。(图像配准)
5.通过图割方法,自动选取拼接缝。
6.根据multi-band blending策略实现融合。
RANSAC[1] (随机抽样一致)是一种迭代算法,该算法从一组包含“外点(outlier)”的观测数据中估计数学模型的参数。“外点”指观测数据中的无效数据,通常为噪声或错误数据,比如图像匹配中的误匹配点和曲线拟合中的离群点。与“外点”相对应的是“内点(inlier)”,即用来估计模型参数的有效数据。因此,RANSAC也是一种“外点”检测算法。此外,RANSAC算法是一种非确定算法,它只能在一定概率下产生可信的结果,当迭代次数增加时,准确的概率也会增加。
RANSAC算法是用来找到正确模型来拟合带有噪声数据的迭代方法。
基本思想:数据中包含正确的点和噪声点,合理的模型应该能够在描述正确数据点的同时摈弃噪声点。
RANSAC的基本思想和算法流程如下:
随机采样K个点,K是求解模型参数的最少点个数;
使用K个点估计模型参数;
计算剩余点到估计模型的距离,距离小于阈值则为内点,统计内点的数目;
重复步骤1~3,重复次数M且保留数目最多的内点;
使用所有的内点重新估计模型。
举例:RANSAC拟合直线
1.随机选取K=2个点
2.拟合直线
3.统计内点个数
4.重复步骤1-3,重复次数M且保留数目最多的内点
5.使用所有的内点重新拟合直线
图像配准是对图像进行变换,使变换后的图像能够在常见的坐标系中对齐。为了能够进行图像对比和更精细的图像分析,图像配准是一步非常重要的操作。图像配准的方法有很多,这里以APAP算法为例:
1.提取两张图片的sift特征点
2.对两张图片的特征点进行匹配
3.匹配后,仍有很多错误点,此时用RANSAC进行特征点对的筛选。筛选后的特征点基本能够一一对应。
4.使用DLT算法,将剩下的特征点对进行透视变换矩阵的估计。
5.因为得到的透视变换矩阵是基于全局特征点对进行的,即一个刚性的单应性矩阵完成配准。为提高配准的精度,Apap将图像切割成无数多个小方块,对每个小方块的变换矩阵逐一估计。
最大流最小割算法原理,
1.最小割问题
一个有向图,并有一个源顶点(source vertex)和目标顶点(target vertex).边的权值为正,又称之为容量(capacity)。如下图
一个st-cut(简称割cut)会把有向图的顶点分成两个不相交的集合,其中s在一个集合中,t在另外一个集合中。
这个割的容量(capacity of the cut)就是A到B所有边的容量和。注意这里不包含B到A的。最小割问题就是要找到割容量最小的情况。
2.最大流问题
跟mincut问题类似,maxflow要处理的情况也是一个有向图,并有一个原顶点(source vertex)和目标(target vertex),边的权值为正,又称之为容量(capacity)。
(1)初始化,所有边的flow都初始化为0。
(2)沿着增广路径增加flow。增广路径是一条从s到t的无向路径,但也有些条件,可以经过没有满容量的前向路径(s到t)或者是不为空的反向路径(t->s)。
图像拼接之后可以发现,在拼接的交界处有明显的衔接痕迹,存在边缘效应,因为光照色泽的原因使得图片交界处的过渡很糟糕,所以需要特定的处理解决这种不自然。那么这时候可以采用blending方法。multi-band blending是目前图像融和方面比较好的方法。
原理:
1.建立两幅图像的拉普拉斯金字塔
2.求高斯金字塔(掩模金字塔-为了拼接左右两幅图像)因为其具有尺度不变性
3. 进行拼接blendLapPyrs() ; 在每一层上将左右laplacian图像直接拼起来得结果金字塔resultLapPyr
4.重建图像: 从最高层结果图
将左右laplacian图像拼成的resultLapPyr金字塔中每一层,从上到下插值放大并和下一层相加,即得blend图像结果(reconstructImgFromLapPyramid)
且我们可以将拉普拉斯金字塔理解为高斯金字塔的逆形式。
在图像拼接融合的过程中,受客观因素的影响,拼接融合后的图像可能会存在“鬼影现象”以及图像间过度不连续等问题。下图就是图像拼接的一种“鬼影现象”。
解决鬼影现象可以采用APAP算法。
算法流程:
1.SIFT得到两幅图像的匹配点对
2.通过RANSAC剔除外点,得到N对内点
3.利用DLT和SVD计算全局单应性
4.将源图划分网格,取网格中心点,计算每个中心点和源图上内点之间的欧式距离和权重
5.将权重放到DLT算法的A矩阵中,构建成新的W*A矩阵,重新SVD分解,自然就得到了当前网格的局部单应性矩阵
6.遍历每个网格,利用局部单应性矩阵映射到全景画布上,就得到了APAP变换后的源图
7.最后就是进行拼接线的加权融合
Apap虽然能够较好地完成配准,但非常依赖于特征点对。若图像高频信息较少,特征点对过少,配准将完全失效,并且对大尺度的图像进行配准,其效果也不是很好,一切都决定于特征点对的数量。
在找完拼接缝后,由于图像噪声、光照、曝光度、模型匹配误差等因素,直接进行图像合成会在图像重叠区域的拼接处出现比较明显的边痕迹。
这些边痕迹需要使用图像融合算法来消除。这里介绍一种方法—multi-band bleing
思想:
采用的方法是直接对带拼接的两个图片进行拉普拉斯金字塔分解,后一半对前一半进行融合
步骤:
首先计算当前待拼接图像和已合成图像的重叠部分。并对图像A、B 重叠部分进行高斯金字塔和拉普拉斯金字塔分解
G0为原始图像,G1表示对G0做reduce操作。Reduce操作定义如下:
对G1进行扩展后与G0相减,可以得到拉普拉斯金字塔的第一层L0。同理,拉普拉斯金字塔的L2、L3等层也可以按照这种方法来计算。
两幅图像的融合过程:分别构建图像A、B的高斯金字塔和拉普拉斯金字塔,然后进行加权融合。
对加权后的拉普拉斯金字塔进行重构
# -*- codeing =utf-8 -*-
# @Time : 2021/4/20 11:00
# @Author : ArLin
# @File : demo1.py
# @Software: PyCharm
from pylab import *
from numpy import *
from PIL import Image
# If you have PCV installed, these imports should work
from PCV.geometry import homography, warp
from PCV.localdescriptors import sift
np.seterr(invalid='ignore')
"""
This is the panorama example from section 3.3.
"""
# 设置数据文件夹的路径
featname = ['D:\python\pytharm\demo\pythonProject\JsVision\拼接图象实验\image\\' + str(i + 1) + '.sift' for i in range(5)]
imname = ['D:\python\pytharm\demo\pythonProject\JsVision\拼接图象实验\image\\' + str(i + 1) + '.jpg' for i in range(5)]
# 提取特征并匹配使用sift算法
l = {
}
d = {
}
for i in range(5):
sift.process_image(imname[i], featname[i])
l[i], d[i] = sift.read_features_from_file(featname[i])
matches = {
}
for i in range(4):
matches[i] = sift.match(d[i + 1], d[i])
# 可视化匹配
for i in range(4):
im1 = array(Image.open(imname[i]))
im2 = array(Image.open(imname[i + 1]))
figure()
sift.plot_matches(im2, im1, l[i + 1], l[i], matches[i], show_below=True)
# 将匹配转换成齐次坐标点的函数
def convert_points(j):
ndx = matches[j].nonzero()[0]
fp = homography.make_homog(l[j + 1][ndx, :2].T)
ndx2 = [int(matches[j][i]) for i in ndx]
tp = homography.make_homog(l[j][ndx2, :2].T)
# switch x and y - TODO this should move elsewhere
fp = vstack([fp[1], fp[0], fp[2]])
tp = vstack([tp[1], tp[0], tp[2]])
return fp, tp
# 估计单应性矩阵
model = homography.RansacModel()
fp, tp = convert_points(1)
H_12 = homography.H_from_ransac(fp, tp, model)[0] # im 1 to 2
fp, tp = convert_points(0)
H_01 = homography.H_from_ransac(fp, tp, model)[0] # im 0 to 1
tp, fp = convert_points(2) # NB: reverse order
H_32 = homography.H_from_ransac(fp, tp, model)[0] # im 3 to 2
tp, fp = convert_points(3) # NB: reverse order
H_43 = homography.H_from_ransac(fp, tp, model)[0] # im 4 to 3
# 扭曲图像
delta = 2000 # for padding and translation用于填充和平移
im1 = array(Image.open(imname[1]), "uint8")
im2 = array(Image.open(imname[2]), "uint8")
im_12 = warp.panorama(H_12, im1, im2, delta, delta)
im1 = array(Image.open(imname[0]), "f")
im_02 = warp.panorama(dot(H_12, H_01), im1, im_12, delta, delta)
im1 = array(Image.open(imname[3]), "f")
im_32 = warp.panorama(H_32, im1, im_02, delta, delta)
im1 = array(Image.open(imname[4]), "f")
im_42 = warp.panorama(dot(H_32, H_43), im1, im_32, delta, 2 * delta)
figure()
imshow(array(im_42, "uint8"))
axis('off')
show()
原始图片集:
全景拼接结果:
结果分析:
结果分析:
该图只有两处拼接缝,明显的拼接缝是蓝框拼接缝,由于是人工手持手机拍摄,亮度有些许的不同,从天空的色彩我们可以看出明显的不同,说明算法对光线变化不做检测处理,仅对图中角点进行特征匹配,
其实总体来说这是一组非常不错的全景拼接结果。
原始照片集:
全景拼接结果:
结果分析:
第二组图片相对于第一组来说,
角度足够大,视觉上也更呈现出了全景拼接的效果,
原照片集:
全景拼接结果:
结果分析:
结果分析:
这组图其实是我从我之前拍的一张夜景图从不同角度截取的五张图,
这组图的景物景深足够远,加上是夜景拍摄,亮度不佳,噪声点的原因,使得我们看到的拼接结果中拼接缝其实不明显,
我也是瞪大眼睛找了好久才看到的,
因为这组图的建筑物很对称,
在之前的图片放置顺序错误导致了出现多重建筑重叠拼接,
经过修正后,
没想到特征点的匹配十分准确,
导致出现的结果也是十分完美
结果分析:
这组图片的全景拼接结果可能会让人怀疑,啊这,还是那个出现完美结果的算法吗,我斩钉截铁的说,是的。
这可能就是老师要我们找的killresult,前面机组照片结果都还不错的原因是它们都属于一组比较二维的图片,就是基本就是近大远小的呈现。
问题1程序中报错:
ValueError: all the input arrays must have same number of dimensions, but the array at index 0 has 3 dimension(s) and the array at index 1 has 2 dimension(s)
所有输入数组的维数必须相同,但索引0处的数组有3个维数,索引1处的数组有2个维数
主要是由于放入的照片集的大小不一致导致的输入数组的维数不同。
解决方法:
编辑好自己的照片的大小,需要相同的大小(长宽比),可以手动编辑也可以使用美图秀秀批量处理工具,推荐使用宽2000左右的大小,因为3000的跑的速度太慢(可能也是我电脑太菜),1000的图片看不大清楚。
问题2:
ValueError: did not meet fit acceptance criteria
不符合拟合验收标准,导致拼接失败
这是同学拍的一组照片遇到的问题然后跟我一起讨论的,
从匹配结果来看,算法检测到的匹配点并不多,
我跑了他的照片集后发现首先他的照片集是前面有是树木挡住的,这就导致后面的建筑物因为拍摄角度的不同招致被不同程度的挡住了,我人眼也都很难去判断整体全景的位置方向(不是很难,是根本判断不出来)
这说明了算法虽然能够较好地完成配准,但非常依赖于特征点对。若图像高频信息较少,特征点对过少,配准将完全失效
解决方法:
照片集的挑选对于本次实验来说十分重要,建议是自己模拟一下手机全景拍摄的步骤,基本就要求你拍摄的图片在同一个水平线上。而且最好你的特征性建筑突出,这样你可以得到较好的实验结果。
问题3:
一开始我的拼接效果非常差,跑了好多组数据,类似于下面这样的结果
解决方法:
这是由于照片的排列顺序是要求从右往左的,但是我一开始是从左往右排序,就会导致这样的结果。我们的照片集应该按照从右到左编号,因为匹配是从最右边的照片开始计算。
问题四:
runtimewarning:invalid value encountered in divide
runtimewarning:在divide中遇到无效值
解决方法:
通过网上查阅资料,了解到只要加一句代码:
np.seterr(invalid=‘ignore’)
就可以忽略报错,继续运行得出结果
单应性:
python计算机视觉-图像处理基础章节第三章之根据仿射或单应性变换实现图像的扭曲,映射,融合
链接: python计算机视觉-图像处理基础章节第三章之根据仿射或单应性变换实现图像的扭曲,映射,融合
sift算法介绍:
python计算机视觉-图像处理基础章节之第二章 图像局部描述符
链接: python计算机视觉-图像处理基础章节之第二章 图像局部描述符.