图像的放大或者缩小处理
cv2.resize(src, dsize, fx=0, fy=0, interpolation = *)
# src:图像
# dsize:绝对尺寸,直接指定调整后的图像大小,不用(使用相对尺寸)设置为null
# fx,fy:相对尺寸,比例因子,自动调整(调整后相对于调整前,调整后/调整前,变大>1,缩小<1)
# interpolation:插值方法,如下
# cv2.INTER_LINERA 双线性插值法
# cv2.INTER_nEAREST 最近邻插值法
# cv2.INTER_AREA 像素区域重采样
# cv2.INTER_CUBIC 双三次插值
注:这里的插值我自己也没理解,我全部跑了一下,感觉好像是清晰度的问题,之后如果我又涉及到会及时补充的!!!
# 代码测试(这采用的是相对路径)
import cv2 as cv
import numpy as np
img = cv.imread('img/11.jpg')
res = cv.resize(img, None, fx=0.5, fy=0.5, interpolation=cv.INTER_CUBIC)
cols,rows = res.shape[:2]
res1 = cv.resize(res, (rows*2, 2*cols), interpolation=cv.INTER_LINEAR)
cv.imshow("original", img)
cv.imshow("res", res)
cv.imshow("res1", res1)
cv.waitKey(0)
注:ERROR!!:这里的绝对路径只可以是整数倍,不能是浮点型,否则会报错!!!
报错内容如下:
Traceback (most recent call last):
File “D:\Python\PythonProject\OpenCVStudy\Main\test1.py”, line 11, in
res1 = cv.resize(res, (cols1.2, 2rows), interpolation=cv.INTER_LINEAR)
TypeError: integer argument expected, got float
函数讲解:
cols,rows = res.shape[:2]
# 这是因为.shape[]这个函数中,shape[0],shape[1],shape[2]这三个分别代表的是宽、长,通道,“:”东西就是python的基础了,这里是从0到2的前一个,就是去shape[0]、shape[1]了。
将图像按照指定方向和距离进行移动。
这里只是平移了,不是消失,只是在我们限制的图像输出大小展示不出来!
cv.warpAffine(img, M, dsize)
# img:输入的图像
# M:一个2*3的移动矩阵(是二维矩阵,别搞得二不像哦!)
# dsize:图像输出的大小
代码测试:横向平移100ps,纵向平移50ps
import cv2 as cv
import numpy as np
img = cv.imread('img/11.jpg')
cols, rows = img.shape[:2]
M = np.float32([[1.0, 0, 100], [0, 1, 50]])
img1 = cv.warpAffine(img, M, (rows, cols))
cv.imshow("original", img)
cv.imshow("img1", img1)
cv.waitKey(0)
图像按照某一个指定的位置转动一定的角度,旋转中图像保持原有尺寸。
个人感觉还是一种特殊的图像平移,只是上面的平移是整理横着竖着,而这个是一种横竖结合的!
Opencv的方法是获得一个旋转矩阵,然后通过图像平移的方法进行旋转
M = cv.getRotationMatrix2D(center, angle, scale)
# M:旋转矩阵
# center:旋转中心
# angle:旋转角度
# scale:缩放比例
import cv2 as cv
import numpy as np
import matplotlib.pyplot as plt
img = cv.imread('img/11.jpg')
cols, rows = img.shape[:2]
# 下面中的1表示和原图一样
M = cv.getRotationMatrix2D((rows/2, cols/2), 90, 1)
img1 = cv.warpAffine(img, M, (rows, cols))
cv.imshow("original", img)
cv.imshow("img1", img1)
cv.waitKey(0)
这里不在展示original图像了,和上面是一样的。
通过三个点的变化规律来对整体图像进行缩放、平移、旋转等操作的组合。(说白了还是让图片进行一定的线性变化)
个人理解:我规定图像中三个有一定关系的点进行一定的运算得到新的图像中三个点的位置,然后,其余的点也根据相应的变化映射到新的图像中。
代码测试:
import cv2 as cv
import numpy as np
img = cv.imread('img/11.jpg')
cols, rows = img.shape[:2]
pst1 = np.float32([[50, 50], [75, 100], [50, 150]])
pst2 = np.float32([[100, 100], [95, 125], [100, 175]])
M = cv.getAffineTransform(pst1, pst2)
img1 = cv.warpAffine(img, M, (rows, cols))
cv.imshow("original", img)
cv.imshow("img1", img1)
cv.waitKey(0)
视角变化的结果,利用透视中心、像点、目标点三点共线的条件,按透视旋转定律使其承影面(透视面)绕迹线(透视轴)旋转某一角度,破坏原有的投影光线束,仍能保持承影面上投影集合图形不变的变化。
OpenCV如何实现呢?
在图像中找四个点,其中任意三个点不共线,然后获取变换矩阵T,再进行透射变化。通过cv.getPerspectiveTransform找到变换矩阵,将cv.warpPerspective应用于3*3的变化矩阵中。
代码测试:(这个仿射变化原理我也没看懂,以后懂了会补充!所以,跑出来是啥玩意我也不懂)
import cv2 as cv
import numpy as np
img = cv.imread('img/11.jpg')
cols, rows = img.shape[:2]
pst1 = np.float32([[10, 50], [50, 66], [75, 120], [95, 150]])
pst2 = np.float32([[20, 30], [700, 75], [100, 100], [100, 170]])
M = cv.getPerspectiveTransform(pst1, pst2)
img1 = cv.warpPerspective(img, M, (rows, cols))
cv.imshow("original", img)
cv.imshow("img1", img1)
cv.waitKey(0)
获得一幅图像一金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合。通过向下采样获得,直到达到某个终止条件停止。层级越高,分辨率越低,图像越小
对原始图像进行采样,主要用于机器视觉、图像压缩和图像分割。
cv.pyrUp(img) #向上采样,上采样一次,图像的长宽扩大为采样图像的两倍
cv.pyrDown(img) #向下采样,下采样一次,图像的长宽缩小为采样图像的两倍
代码测试:
import cv2 as cv
import numpy as np
img = cv.imread('img/11.jpg')
# 上采样
imgUp = cv.pyrUp(img)
# 下采样
imgDown = cv.pyrDown(img)
cv.imshow("original", img)
cv.imshow('Down', imgDown)
cv.imshow("Up", imgUp)
cv.waitKey(0)