自21世纪初以来,图像配准主要使用基于特征的方法。这些方法有三个步骤:关键点检测和特征描述,特征匹配,图像变换。简单的说,我们选择两个图像中的感兴趣点,将参考图像(reference image)与感测图像(sensed image)中的等价感兴趣点进行关联,然后变换感测图像使两个图像对齐。
关键点就是感兴趣点,它表示图像中重要或独特的内容(边角,边缘等)。每个关键点由描述符表示,关键点基本特征的特征向量。描述符应该对图像变换(定位,缩放,亮度等)具有鲁棒性。许多算法使用关键点检测和特征描述:
关键函数
创建一个SIFT对象:
cv2.xfeatures2d.SIFT_create(, nfeatures, nOctaveLayers, contrastThreshold, edgeThreshold, sigma)
nfeatures:默认为0,要保留的最佳特征的数量。 特征按其分数排名(在SIFT算法中按局部对比度排序)
nOctaveLayers:默认为3,金字塔每组(Octave)有多少层。 3是D. Lowe纸中使用的值。
contrastThreshold:默认为0.04,对比度阈值,用于滤除半均匀(低对比度)区域中的弱特征。 阈值越大,检测器产生的特征越少。
edgeThreshold:默认为10,用来过滤边缘特征的阈值。注意,它的意思与contrastThreshold不同,edgeThreshold越大,滤出的特征越少(保留更多特征)。
sigma:默认为1.6,高斯金字塔中的σ。 如果使用带有软镜头的弱相机拍摄图像,则可能需要减少数量。
检测特征点:
sift.detect(image,keypoints) 或 keypoint = sift.detect(image, None)
sift:配置好SIFT算法对象
image:输入图像,单通道
keypoint:输出参数,保存着特征点,每个特征点包含有以下信息:
Point2f pt:坐标
float size:特征点的邻域直径
float angle:特征点的方向,值为[0,360度),负值表示不使用
float response;
int octave:特征点所在的图像金字塔的组
int class_id:用于聚类的id
绘制特征点:
cv2.drawKeypoint(image, keypoints, outImage, color, flags)
或:outImage = cv2.drawKeypoint(image, keypoints, None, color, flags)
image:输入图像
keypoints:上面获取的特征点
outImage:输出图像
color:颜色,默认为随机颜色
flags:绘制点的模式,有以下四种模式
cv2.DRAW_MATCHES_FLAGS_DEFAULT:
默认值,只绘制特征点的坐标点,显示在图像上就是一个个小圆点,每个小圆点的圆心坐标都是特征点的坐标。
cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS:
绘制特征点的时候绘制的是带有方向的圆,这种方法同时显示图像的坐标,size,和方向,是最能显示特征的一种绘制方式。
cv2.DRAW_MATCHES_FLAGS_DRAW_OVER_OUTIMG:
只绘制特征点的坐标点,显示在图像上就是一个个小圆点,每个小圆点的圆心坐标都是特征点的坐标。
cv2.DRAW_MATCHES_FLAGS_NOT_DRAW_SINGLE_POINT:
单点的特征点不被绘制
OpenCV-Python——第26章:SIFT特征点提取算法_sift提取关键点的顺序-CSDN博客https://blog.csdn.net/yukinoai/article/details/88912586
import cv2
import numpy as np
img = cv2.imread('./image/cali.bmp')
img = cv2.resize(img,dsize=(600,400))
#转换为灰度图像
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
#创建一个SURF对象
surf = cv2.xfeatures2d.SURF_create(20000)
#surf对象会使用Hessian算法检测关键点,并且对每个关键点周围的区域计算特征向量。该函数返回关键点的信息和描述符
keypoints,descriptor = surf.detectAndCompute(gray,None)
print(type(keypoints),len(keypoints),keypoints[0])
print(descriptor.shape)
#在图像上绘制关键点
img = cv2.drawKeypoints(image=img,keypoints = keypoints,outImage=img,color=(255,0,255),flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS)
#显示图像
cv2.imshow('surf_keypoints',img)
cv2.waitKey(0)
cv2.destroyAllWindows()
无人机航拍图像匹配——ORB算法实践(含代码)_orb实现-CSDN博客文章浏览阅读1.2k次。无人机航拍图像,用orb算法进行匹配_orb实现https://blog.csdn.net/zhangzhao147/article/details/131094471寻找图像中的关键点,创建相应的二进制特征向量,并在ORB描述符中将它们组合在一起。
#角点检测,角点数500
orb = cv2.ORB_create(500)
#描述子生成
keypoints1, descriptors1 = orb.detectAndCompute(image1, None)
keypoints2, descriptors2 = orb.detectAndCompute(image2, None)
# 暴力匹配
matcher = cv2.DescriptorMatcher_create(cv2.DESCRIPTOR_MATCHER_BRUTEFORCE_HAMMING)
# 特征点匹配
matches = matcher.match(descriptors1, descriptors2)
#滤波去除不好的特征点
ratio_threshold = 0.4
#ratio_threshold一般设置在0.4-0.8之间,如果对精度要求极高,可尽量小。当然,如果设置的太小,可能导致筛选后的匹配点数目稀少,如果少于4对,将会报错。
good_matches = []
for match in matches:
if hasattr(match, 'distance'):
m = match.distance
#m代表匹配点之间的差异,当然越小越好,通过这个步骤可以剔除离群点。
if hasattr(match, 'trainIdx'):
n = matches[match.trainIdx].distance
if m < ratio_threshold * n:
good_matches.append(match)
else:
good_matches.append(match)
#计算转移矩阵
# 提取匹配的特征点的坐标
src_points = np.float32([keypoints1[m.queryIdx].pt for m in good_matches]).reshape(-1, 1, 2)
dst_points = np.float32([keypoints2[m.trainIdx].pt for m in good_matches]).reshape(-1, 1, 2)
# 计算单应矩阵
H, _ = cv2.findHomography(src_points, dst_points, cv2.RANSAC, 3)
#H ,_= cv2.findHomography(src_points, dst_points)
# 输出单应矩阵H
print("Homography Matrix:")
print(H)
# 计算每对匹配点的误差L2
errors = []
right_point=[]
thrshold=10
for match in good_matches:
kp1 = keypoints1[match.queryIdx]
kp2 = keypoints2[match.trainIdx]
pt1 = np.array([kp1.pt[0], kp1.pt[1], 1])
pt2 = np.array([kp2.pt[0], kp2.pt[1], 1])
pt1_transformed = np.dot(H, pt1)
error = np.linalg.norm(pt1_transformed - pt2) ** 2
if np.linalg.norm(pt1_transformed - pt2)
定位关键点ORB_create()函数解析_cv2.orb_create()-CSDN博客https://blog.csdn.net/qq_18649781/article/details/88885208
import numpy as np
import cv2 as cv
import matplotlib.pyplot as plt
img1 = cv.imread('image1.jpg', cv.IMREAD_GRAYSCALE)
img2 = cv.imread('image2.jpg', cv.IMREAD_GRAYSCALE)
# 初始化 AKAZE 探测器
akaze = cv.AKAZE_create()
# 使用 SIFT 查找关键点和描述
kp1, des1 = akaze.detectAndCompute(img1, None)
kp2, des2 = akaze.detectAndCompute(img2, None)
# BFMatcher 默认参数
bf = cv.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
# 旋转测试
good_matches = []
for m,n in matches:
if m.distance < 0.75*n.distance:
good_matches.append([m])
# 画匹配点
img3 = cv.drawMatchesKnn(img1,kp1,img2,kp2,good_matches,None,flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS)
cv.imwrite('matches.jpg', img3)
# 选择匹配关键点
ref_matched_kpts = np.float32([kp1[m[0].queryIdx].pt for m in good_matches]).reshape(-1,1,2)
sensed_matched_kpts = np.float32([kp2[m[0].trainIdx].pt for m in good_matches]).reshape(-1,1,2)
# 计算 homography
H, status = cv.findHomography(ref_matched_kpts, sensed_matched_kpts, cv.RANSAC,5.0)
# 变换
warped_image = cv.warpPerspective(img1, H, (img1.shape[1]+img2.shape[1], img1.shape[0]))
cv.imwrite('warped.jpg', warped_image)
图像配准:从SIFT到深度学习 - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/75784915
sift、surf、orb 特征提取及最优特征点匹配-CSDN博客https://blog.csdn.net/weixin_30466421/article/details/98593048?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522170497765116800215066141%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=170497765116800215066141&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-98593048-null-null.142^v99^pc_search_result_base8&utm_term=surf%E7%89%B9%E5%BE%81%E6%8F%90%E5%8F%96&spm=1018.2226.3001.4187