理解参数
输入参数
1.samples:应该是np.float32数据类型,且每个特征应该放在一个单独的列。
2.nclusters(K): 需要的聚类的数量
3.criteria: 这是迭代终止准则。当满足这个准则时,算法迭代停止。实际上,它应该是一个3个参数的元组。他们是:(type, max_iter, epsilon):
·3.a - 终止准则的类型: 有3个标志如下:
cv2.TERM_CRITERIA_EPS - 如果满足了指定准确度,epsilon就停止算法迭代。
cv2.TERM_CRITERIA_MAX_ITER - 在指定次数的迭代后就停止算法。
cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER - 当任何上面的条件满足就停止迭代
·3.b - max_iter - 指定最大的迭代次数,整数
·3.c - epsilon - 需要的准确度
4.attempts: 标志,指定算法使用不同初始标签执行的次数。算法返回能得到最好密度的标签。密度作为输出被返回。
5.flags:这个标志是用来指定如何得到初始中心的。一般两个标志会用到:cv2.KMEANS_PP_CENTERS和cv2.KMEANS_RANDOM_CENTERS.
输出参数
1.compactness: 这是从每个点到他们对应的中心的距离的平方和。
2.labels: 这是标签数组(和'code'一样),每个元素被标记为'0', '1'...
3.centers: 这是聚类中心的数组
现在我们用三个例子看看怎么应用K-Means算法
1.只有一个特征的数据
你有一个只有一个特征或者一个维度的数据集,比如,我们你只能用人的身高来决定T恤的尺寸。
所以我们创建数据并用Matplotlib绘制:import numpy as np
import cv2
from matplotlib import pyplot as plt
x = np.random.randint(25,100,25)
y = np.random.randint(175,255,25)
z = np.hstack((x,y))
z = z.reshape((50,1))
z = np.float32(z)
plt.hist(z,256,[0,256]),plt.show()
所以我们的'z'是一个大小为50的数组,值的范围从0到255。我们把'z'变形成列向量。当超过一个特征被显示时很有用。那么我们把数据变成np.float32类型。
现在我们使用KMeans函数。在此之前我们需要制定criteria。我们的criteria是当10次算法迭代或者准确度epsilon=1.0满足时,停止算法并返回结果。# Define criteria = ( type, max_iter = 10 , epsilon = 1.0 )
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
# Set flags (Just to avoid line break in the code)
flags = cv2.KMEANS_RANDOM_CENTERS
# Apply KMeans
compactness,labels,centers = cv2.kmeans(z,2,None,criteria,10,flags)
这给我们密度,标签和中心,在这个例子里,我们得到中心60和207. 标签会有和测试数据相同的大小,每个数据会根据他们的质心被标记为'0', '1', '2'。现在我们根据标签把数据分为不同的聚类。A = z[labels==0]
B = z[labels==1]
现在我们用红色画出A用蓝色画B,他们的质心用黄色# Now plot 'A' in red, 'B' in blue, 'centers' in yellow
plt.hist(A,256,[0,256],color = 'r')
plt.hist(B,256,[0,256],color = 'b')
plt.hist(centers,32,[0,256],color = 'y')
plt.show()
下面是我们的输出:
2. 多个特征的数据
在前面的例子里,我们对于T恤问题只取身高。这里,我们取身高和体重两个特征。
记住,在前面的例子里,我们把我们的数据弄成单列向量。每个特征作为一列。每行对应一个输入测试样本。
例如,在这个例子里,我们设置一个大小为50x2的测试数据,是50个人的身高和体重。第一列对应着所有50个人的身高,第二列对应他们的体重。第一行包含两个元素,第一个元素是第一个人的身高,第二个元素是他的体重,类似的剩下的行对应剩下的人的身高和体重。看下图:
现在我们直接看代码:import numpy as np
import cv2
from matplotlib import pyplot as plt
X = np.random.randint(25,50,(25,2))
Y = np.random.randint(60,85,(25,2))
Z = np.vstack((X,Y))
# convert to np.float32
Z = np.float32(Z)
# define criteria and apply kmeans()
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
ret,label,center=cv2.kmeans(Z,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)
# Now separate the data, Note the flatten()
A = Z[label.ravel()==0]
B = Z[label.ravel()==1]
# Plot the data
plt.scatter(A[:,0],A[:,1])
plt.scatter(B[:,0],B[:,1],c = 'r')
plt.scatter(center[:,0],center[:,1],s = 80,c = 'y', marker = 's')
plt.xlabel('Height'),plt.ylabel('Weight')
plt.show()
下面是输出:
3.颜色量化
颜色量化是减少一个图像里的颜色数量的过程。做这个的一个原因是减少内存使用。有时候,一些设备会受限只能生成有限的颜色数量。在那些情况下也会执行颜色量化。这里我们使用k-means聚类来做颜色量化。
没有新的内容要解释。这里有3个特征,R,G,B。所以我们需要把图像改造成Mx3大小的数组(M是图像像素的数量)。聚类之后,我们应用中心值到所有的像素上,这样结果图像会有指定数量的颜色。再次我们需要把它变形回去变成原始图片的形状。下面是代码:import numpy as np
import cv2
img = cv2.imread('home.jpg')
Z = img.reshape((-1,3))
# convert to np.float32
Z = np.float32(Z)
# define criteria, number of clusters(K) and apply kmeans()
criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)
K = 8
ret,label,center=cv2.kmeans(Z,K,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)
# Now convert back into uint8, and make original image
center = np.uint8(center)
res = center[label.flatten()]
res2 = res.reshape((img.shape))
cv2.imshow('res2',res2)
cv2.waitKey(0)
cv2.destroyAllWindows()
看下面K=8时的结果:
END