win10+Python3.7.3+OpenCV3.4.1入门学习(六)————6.2自适应阈值处理

Python版本是Python3.7.3,OpenCV版本OpenCV.3.4.1,开发环境为PyCharm

对于色彩均衡的图像,直接使用一个阈值就能完成对图像的阈值化处理。但是,有时图像的色彩是不均衡的,此时如果只使用一个阈值,就无法得到清晰有效的阈值分割结果图像。
有一种改进的阈值处理技术,其使用变化的阈值完成对图像的阈值处理,这种技术被称为自适应阈值处理。在进行阈值处理时,自适应阈值处理的方式通过计算每个像素点周围临近区域的加权平均值获得阈值,并使用该阈值对当前像素点进行处理。与普通的阈值处理方法相比,自适应阈值处理能够更好地处理明暗差异较大的图像。
OpenCV提供了函数cv2.adaptiveThreshold()来实现自适应阈值处理,该函数的语法格式为:

dst = cv.adaptiveThreshold( src, maxValue, adaptiveMethod, thresholdType,blockSize, C )

式中:
● dst代表自适应阈值处理结果。
● src代表要进行处理的原始图像。需要注意的是,该图像必须是8位单通道的图像。
● maxValue代表最大值。
● adaptiveMethod代表自适应方法。
● thresholdType代表阈值处理方式,该值必须是cv2.THRESH_BINARY 或者cv2.THRESH_BINARY_INV中的一个。
● blockSize代表块大小。表示一个像素在计算其阈值时所使用的邻域尺寸,通常为3、5、7等。
● C是常量。
函数cv2.adaptiveThreshold()根据参数adaptiveMethod来确定自适应阈值的计算方法,函数包含cv2.ADAPTIVE_THRESH_MEAN_C和cv2.ADAPTIVE_THRESH_GAUSSIAN_C两种不同的方法。这两种方法都是逐个像素地计算自适应阈值,自适应阈值等于每个像素由参数blockSize所指定邻域的加权平均值减去常量C。两种不同的方法在计算邻域的加权平均值时所采用的方式不同:
● cv2.ADAPTIVE_THRESH_MEAN_C:邻域所有像素点的权重值是一致的。
● cv2.ADAPTIVE_THRESH_GAUSSIAN_C:与邻域各个像素点到中心点的距离有关,通过高斯方程得到各个点的权重值。
eg1:对一幅图像分别使用二值化阈值函数cv2.threshold()和自适应阈值函数cv2.adaptiveThreshold()进行处理,观察处理结果的差异。
代码如下:

import cv2
img=cv2.imread("computer.jpg",0)
t1,thd=cv2.threshold(img,127,255,cv2.THRESH_BINARY)
athdMEAN=cv2.adaptiveThreshold(img,255,cv2.ADAPTIVE_THRESH_MEAN_C,cv2.THRESH_BINARY,3,5)
athdGAUS=cv2.adaptiveThreshold(img,255,cv2.ADAPTIVE_THRESH_GAUSSIAN_C,cv2.THRESH_BINARY,3,5)
cv2.imshow("img",img)
cv2.imshow("thd",thd)
cv2.imshow("athdMEAN",athdMEAN)
cv2.imshow("athdGAUS",athdGAUS)
cv2.waitKey()
cv2.destroyAllWindows()

运行程序,结果如图6-13所示,其中:
● 图(a)是原始图像。
● 图(b)是二值化阈值处理结果。
● 图©是自适应阈值采用方法cv2.ADAPTIVE_THRESH_MEAN_C的处理结果。
● 图(d)是自适应阈值采用方法cv2.ADAPTIVE_THRESH_GAUSSIAN_C的处理结果。
通过对比普通的阈值处理与自适应阈值处理可以发现,自适应阈值处理保留了更多的细节信息。在一些极端情况下,普通的阈值处理会丢失大量的信息,而自适应阈值处理可以得到效果更好的二值图像。
win10+Python3.7.3+OpenCV3.4.1入门学习(六)————6.2自适应阈值处理_第1张图片win10+Python3.7.3+OpenCV3.4.1入门学习(六)————6.2自适应阈值处理_第2张图片win10+Python3.7.3+OpenCV3.4.1入门学习(六)————6.2自适应阈值处理_第3张图片win10+Python3.7.3+OpenCV3.4.1入门学习(六)————6.2自适应阈值处理_第4张图片

你可能感兴趣的:(Python-OpenCV)