图像映射类型有平移、旋转、尺度变换、仿射、透视映射、桶装映射等,不同的类型所对应的自由度也不同,如下图所示:
单应性变换即一个平面到另一个平面的映射关系。公式如下所示:
如图所示:
第i个特征点的位移量为( x i ′ − x i x_i^{'}-x_i xi′−xi, y i ′ − y i y_i^{'}-y_i yi′−yi)
( x t , y t ) = ( 1 n ∑ i = 1 n x i ′ − x i , 1 n ∑ i = 1 n y i ′ − y i ) (x_t,y_t)=(\frac{1}{n}\sum_{i=1}^nx_i{'}-x_i,\frac{1}{n}\sum_{i=1}^ny_i{'}-y_i) (xt,yt)=(n1∑i=1nxi′−xi,n1∑i=1nyi′−yi)
给定任意像素点 ( x i , y i ) (x_i,y_i) (xi,yi)
x i + x t = x i ′ x_i+x_t=x_i^{'} xi+xt=xi′
y i + y t = y i ′ y_i+y_t=y_i^{'} yi+yt=yi′
定义映射残差为:
优化目标(使残差平方和最小化)
得到最小二乘解,在平移问题中最小二乘解和平均残差得到的结果等价
对于f(x)中每个像素x,根据变换模型计算相应的映射坐标x’=h(x),并将x像素值赋给g(x’)
对于g(x‘)中的每个像素x’,根据变换模型计算相应的映射坐标 x = h − 1 ( x ′ ) x=h^{-1}(x') x=h−1(x′),并将x的像素值赋给g(x’)
主要插值方法:
在直线拟合时,我们需要根据给定的若干二维空间中的点,求出直线y=ax+b,并使得该直线对空间点的拟合误差最小,但可能存在噪声点对结果造成很大影响,如图所示:
此时我们可以随机选取两个点,并根据选择点构造直线,再给定阈值计算出inliers的数量
APAP算法流程:
在寻找拼接缝时,我们希望找到一条不明显的拼接缝,而这就需要通过最大流最小割图割方法进行操作。
最大流:
给定指定有向图,其中有两个特殊的点源S(Sources)和汇T(Sinks),每条边有指定的容量(Capacity),求满足条件的从S到T的最大流(MaxFlow)。
最小割:
割是网络中定点的一个划分,它把网络中的所有顶点划分成两个顶点集合S和T,其中源点s∈S,汇点t∈T。记为CUT(S,T),满足条件的从S到T的最小割(Min cut)。
在进行图像融合时我们通常采用multi-band blending策略进行融合
基本原理:
1.建立两幅图像的拉普拉斯金字塔
2.求高斯金字塔(掩模金字塔-为了拼接左右两幅图像)因为其具有尺度不变性
具体代码:
from pylab import *
from numpy import *
from PIL import Image
# If you have PCV installed, these imports should work
from PCV.geometry import homography, warp
from PCV.localdescriptors import sift
"""
This is the panorama example from section 3.3.
"""
# set paths to data folder
featname = ['./panoramicpic3/' + str(i + 1) + '.sift' for i in range(5)]
imname = ['./panoramicpic3/' + str(i + 1) + '.jpg' for i in range(5)]
# extract features and match
l = {}
d = {}
for i in range(5):
sift.process_image(imname[i], featname[i])
l[i], d[i] = sift.read_features_from_file(featname[i])
matches = {}
for i in range(4):
matches[i] = sift.match(d[i + 1], d[i])
# visualize the matches (Figure 3-11 in the book)
for i in range(4):
im1 = array(Image.open(imname[i]))
im2 = array(Image.open(imname[i + 1]))
figure()
sift.plot_matches(im2, im1, l[i + 1], l[i], matches[i], show_below=True)
# function to convert the matches to hom. points
def convert_points(j):
ndx = matches[j].nonzero()[0]
fp = homography.make_homog(l[j + 1][ndx, :2].T)
ndx2 = [int(matches[j][i]) for i in ndx]
tp = homography.make_homog(l[j][ndx2, :2].T)
# switch x and y - TODO this should move elsewhere
fp = vstack([fp[1], fp[0], fp[2]])
tp = vstack([tp[1], tp[0], tp[2]])
return fp, tp
# estimate the homographies
model = homography.RansacModel()
fp, tp = convert_points(1)
H_12 = homography.H_from_ransac(fp, tp, model)[0] # im 1 to 2
fp, tp = convert_points(0)
H_01 = homography.H_from_ransac(fp, tp, model)[0] # im 0 to 1
tp, fp = convert_points(2) # NB: reverse order
H_32 = homography.H_from_ransac(fp, tp, model)[0] # im 3 to 2
tp, fp = convert_points(3) # NB: reverse order
H_43 = homography.H_from_ransac(fp, tp, model)[0] # im 4 to 3
# warp the images
delta = 2000 # for padding and translation
im1 = array(Image.open(imname[1]), "uint8")
im2 = array(Image.open(imname[2]), "uint8")
im_12 = warp.panorama(H_12, im1, im2, delta, delta)
im1 = array(Image.open(imname[0]), "f")
im_02 = warp.panorama(dot(H_12, H_01), im1, im_12, delta, delta)
im1 = array(Image.open(imname[3]), "f")
im_32 = warp.panorama(H_32, im1, im_02, delta, delta)
im1 = array(Image.open(imname[4]), "f")
im_42 = warp.panorama(dot(H_32, H_43), im1, im_32, delta, 2 * delta)
figure()
imshow(array(im_42, "uint8"))
axis('off')
show()
实验结果:
如图所示:由于拍摄角度、光线不同以及分辨率大小等原因,出现了一些错误的特征点匹配,全景拼接后的图像拼接缝明显,但整体上还是能够将图像进行拼接完成。
不同拍摄及全景图像拼接后效果
由图所示:当调整拍摄角度后,图像的全景拼接效果相较之前的效果更好,对于同一场景,不同的拍摄状态对全景图像拼接效果有一定的影响。
在使用图像拼接技术时因为视角投影带来了不规则的边界问题,因此为了获得规则的矩形边界,通常采用裁剪和补全的方法,但这两种方法会减少原始图像内容或新增图像内容,使得结果在实际应用中并不完全可靠。
因此为了解决上述问题,何凯明提出了第一个解决该问题的方法-rectangling(矩形化),该方法在不增加、不减少图像内容的基础上,通过网格变形的方式将不规则的拼接图映射为矩形。但该算法受限于LSD检测性能同时也无法提取有效语义感知特征,对结构复杂的场景并不鲁棒,结果往往呈现出部分扭曲。