在代码中看到图像的2种处理方式:
image = (image-127.5 )/ 127.5
第一种是对图像进行归一化,范围为[0, 1],第二种也是对图像进行归一化,范围为[-1, 1],这两种只是归一化范围不同。
scipy.ndimage.interpolation.zoom函数
scipy.ndimage.interpolation.zoom-CSDN博客
scipy.ndimage.interpolation.zoom(input, zoom, output=None, order=3, mode='constant', cval=0.0, prefilter=True)[source]
Zoom an array.
input:输入数组
zoom:类型为float或sequence,沿轴的缩放系数。 如果float,每个轴的缩放是相同的。 如果sequence,zoom应包含每个轴的一个值。
output:放置输出的数组,或返回数组的dtype
order:样条插值的顺序,默认为3.顺序必须在0-5范围内。
os.listdir():
python中os.listdir用法_os.listdir()函数用法-CSDN博客
glob.glob() + os.path.join() :找到文件路径,拼接路径_glob.glob(os.path.join-CSDN博客
tf.nn.conv2d()函数
tf.nn.conv2d()函数详解(strides与padding的关系)-CSDN博客
无人机航拍图像匹配——ORB算法实践(含代码)_orb实现-CSDN博客
这个blog讲解的非常清晰非常好。
寻找图像中的关键点,创建相应的二进制特征向量,并在ORB描述符中将它们组合在一起。
#角点检测,角点数500
orb = cv2.ORB_create(500)
#描述子生成
keypoints1, descriptors1 = orb.detectAndCompute(image1, None)
keypoints2, descriptors2 = orb.detectAndCompute(image2, None)
# 暴力匹配
matcher = cv2.DescriptorMatcher_create(cv2.DESCRIPTOR_MATCHER_BRUTEFORCE_HAMMING)
# 特征点匹配
matches = matcher.match(descriptors1, descriptors2)
#滤波去除不好的特征点
ratio_threshold = 0.4
#ratio_threshold一般设置在0.4-0.8之间,如果对精度要求极高,可尽量小。当然,如果设置的太小,可能导致筛选后的匹配点数目稀少,如果少于4对,将会报错。
good_matches = []
for match in matches:
if hasattr(match, 'distance'):
m = match.distance
#m代表匹配点之间的差异,当然越小越好,通过这个步骤可以剔除离群点。
if hasattr(match, 'trainIdx'):
n = matches[match.trainIdx].distance
if m < ratio_threshold * n:
good_matches.append(match)
else:
good_matches.append(match)
#计算转移矩阵
# 提取匹配的特征点的坐标
src_points = np.float32([keypoints1[m.queryIdx].pt for m in good_matches]).reshape(-1, 1, 2)
dst_points = np.float32([keypoints2[m.trainIdx].pt for m in good_matches]).reshape(-1, 1, 2)
# 计算单应矩阵
H, _ = cv2.findHomography(src_points, dst_points, cv2.RANSAC, 3)
#H ,_= cv2.findHomography(src_points, dst_points)
# 输出单应矩阵H
print("Homography Matrix:")
print(H)
# 计算每对匹配点的误差L2
errors = []
right_point=[]
thrshold=10
for match in good_matches:
kp1 = keypoints1[match.queryIdx]
kp2 = keypoints2[match.trainIdx]
pt1 = np.array([kp1.pt[0], kp1.pt[1], 1])
pt2 = np.array([kp2.pt[0], kp2.pt[1], 1])
pt1_transformed = np.dot(H, pt1)
error = np.linalg.norm(pt1_transformed - pt2) ** 2
if np.linalg.norm(pt1_transformed - pt2)
定位关键点ORB_create()函数解析_cv2.orb_create()-CSDN博客