OpenCV实战(OCR识别和高级基础)

目录

  • 图像特征
    • harris角点检测
      • 基本原理
      • 实现
    • Scale Invariant Feature Transform(SIFT)
      • 图像尺度空间
      • 多分辨率金字塔
      • 高斯差分金字塔(DOG)
      • DoG空间极值检测
      • 关键点的精确定位
      • 消除边界响应
      • 特征点的主方向
      • 生成特征描述
    • 特征匹配
      • Brute-Force蛮力匹配
      • 1对1的匹配
      • k对最佳匹配
      • 随机抽样一致算法(Random sample consensus,RANSAC)
      • 单应性矩阵

图像特征

harris角点检测

OpenCV实战(OCR识别和高级基础)_第1张图片
角点:无论沿水平还是竖直方向移动,灰度级都会发生变化,并且这个变化是迅速的
边界:只有一个方向移动灰度级是迅速的,另一个方向是缓慢的

基本原理

OpenCV实战(OCR识别和高级基础)_第2张图片
OpenCV实战(OCR识别和高级基础)_第3张图片

OpenCV实战(OCR识别和高级基础)_第4张图片
OpenCV实战(OCR识别和高级基础)_第5张图片
OpenCV实战(OCR识别和高级基础)_第6张图片
OpenCV实战(OCR识别和高级基础)_第7张图片

实现

cv2.cornerHarris()

  • img: 数据类型为 float32 的入图像
  • blockSize: 角点检测中指定区域的大小
  • ksize: Sobel求导中使用的窗口大小
  • k: 取值参数为 [0,04,0.06]
import cv2 
import numpy as np
def cv_show(img,name):
    cv2.imshow(name,img)
    cv2.waitKey()
    cv2.destroyAllWindows()
    cv2.waitKey(1)
    
img = cv2.imread('./汪学长的随堂资料/7/07and08 OpenCV_高级基础和多个项目实战/高级基础知识/test_1.jpg')
print ('img.shape:',img.shape)
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# gray = np.float32(gray)
dst = cv2.cornerHarris(gray, 2, 3, 0.04)
print ('dst.shape:',dst.shape)

在这里插入图片描述

img[dst>0.01*dst.max()]=[0,0,255]
cv_show(img,'dst')

Scale Invariant Feature Transform(SIFT)

图像尺度空间

OpenCV实战(OCR识别和高级基础)_第8张图片

在这里插入图片描述

多分辨率金字塔

OpenCV实战(OCR识别和高级基础)_第9张图片

高斯差分金字塔(DOG)


在这里插入图片描述

DoG空间极值检测

为了寻找尺度空间的极值点,每个像素点要和其图像域(同一尺度空间)和尺度域(相邻的尺度空间)的所有相邻点进行比较,当其大于(或者小于)所有相邻点时,该点就是极值点。如下图所示,中间的检测点要和其所在图像的3×3邻域8个像素点,以及其相邻的上下两层的3×3领域18个像素点,共26个像素点进行比较。
OpenCV实战(OCR识别和高级基础)_第10张图片

关键点的精确定位

这些候选关键点是DOG空间的局部极值点,而且这些极值点均为离散的点,精确定位极值点的一种方法是,对尺度空间DoG函数进行曲线拟合,计算其极值点,从而实现关键点的精确定位。
OpenCV实战(OCR识别和高级基础)_第11张图片

消除边界响应

OpenCV实战(OCR识别和高级基础)_第12张图片

特征点的主方向

OpenCV实战(OCR识别和高级基础)_第13张图片
每个特征点可以得到三个信息(x,y,σ,θ),即位置、尺度和方向。具有多个方向的关键点可以被复制成多份,然后将方向值分别赋给复制后的特征点,一个特征点就产生了多个坐标、尺度相等,但是方向不同的特征点。

生成特征描述

OpenCV实战(OCR识别和高级基础)_第14张图片
OpenCV实战(OCR识别和高级基础)_第15张图片
OpenCV实战(OCR识别和高级基础)_第16张图片
OpenCV实战(OCR识别和高级基础)_第17张图片

import cv2
import numpy as np

def cv_show(img,name):
    cv2.imshow(name,img)
    cv2.waitKey()
    cv2.destroyAllWindows()
    cv2.waitKey(1) # MacOS函数
    
img = cv2.imread('./汪学长的随堂资料/7/07and08 OpenCV_高级基础和多个项目实战/高级基础知识/test_1.jpg')
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)

得到特征点

sift = cv2.xfeatures2d.SIFT_create()
kp = sift.detect(gray, None)
img = cv2.drawKeypoints(gray, kp, img)

cv_show(img,'drawKeypoints')


计算特征

kp, des = sift.compute(gray, kp)

des是每个关键点的特征

print (np.array(kp).shape)

在这里插入图片描述

des.shape

在这里插入图片描述

特征匹配

Brute-Force蛮力匹配

import cv2 
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
img1 = cv2.imread('./汪学长的随堂资料/7/07and08 OpenCV_高级基础和多个项目实战/高级基础知识/box.png', 0)
img2 = cv2.imread('./汪学长的随堂资料/7/07and08 OpenCV_高级基础和多个项目实战/高级基础知识/box_in_scene.png', 0)
cv_show('img1',img1)

OpenCV实战(OCR识别和高级基础)_第18张图片

cv_show('img2',img2)

sift = cv2.xfeatures2d.SIFT_create()
kp1, des1 = sift.detectAndCompute(img1, None)
kp2, des2 = sift.detectAndCompute(img2, None)
# crossCheck表示两个特征点要互相匹,例如A中的第i个特征点与B中的第j个特征点最近的,并且B中的第j个特征点到A中的第i个特征点也是 
#NORM_L2: 归一化数组的(欧几里德距离),如果其他特征计算方法需要考虑不同的匹配计算方式
bf = cv2.BFMatcher(crossCheck=True)

1对1的匹配

matches = bf.match(des1, des2)
matches = sorted(matches, key=lambda x: x.distance)
img3 = cv2.drawMatches(img1, kp1, img2, kp2, matches[:10], None,flags=2)
cv_show('img3',img3)

k对最佳匹配

bf = cv2.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good = []
for m, n in matches:
    if m.distance < 0.75 * n.distance:
        good.append([m])
img3 = cv2.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=2)
cv_show('img3',img3)

随机抽样一致算法(Random sample consensus,RANSAC)

OpenCV实战(OCR识别和高级基础)_第19张图片
OpenCV实战(OCR识别和高级基础)_第20张图片
OpenCV实战(OCR识别和高级基础)_第21张图片

单应性矩阵

OpenCV实战(OCR识别和高级基础)_第22张图片

你可能感兴趣的:(cv和nlp学习,opencv,ocr,人工智能)