Kmeans聚类算法的基本原理与应用
内容说明:主要介绍Kmeans聚类算法的数学原理,并使用matlab编程实现Kmeans的简单应用,不对之处还望指正。
参考资料:http://www.cnblogs.com/tiandsp/archive/2013/04/24/3040883.html
以往的回归分类、朴素贝叶斯分类、SVM分类的样本的标签(类别)是已知的,通过大量的训练样本训练得到模型,然后判断新的样本所属已知类别中的哪一类。而Kmeans聚类属于无监督学习,样本所属的类别是未知的,只是根据特征将样本分类,且类别空间也是根据需要人为选定的。
Kmeans核心思想:最小化所有样本到所属类别中心的欧式距离和,采用迭代的方式实现收敛。
为了将J调整到最小,假设当前情况下J没有达到最小,那么可以通过固定每一个类别的中心u,调整每一个样本的所属类别c来减小J,也可以通过固定每一个样本的所属类别c,调整类别中心来减小J的值。理论上,可以有多组u,c值使得J最小,但实际应用中一般出现较少。
J为非凸函数,所以最后收敛的点有可能是全局最优,也有可能是局部最优,说明Kmeans对初始条件比较敏感,可多次给定不同的初始条件计算J值,最后选择最小的那一组作为最终的结果。下图为不断迭代至收敛的过程图。
下面的代码主要来自参考资料,只是将三维数据改成二维数据,可以将二维训练数据类比为学生的语文和数学的成绩,通过聚类将300名学生按照成绩分别ABC三类,三维数据对应着可以类比为学生的语数外成绩。
matlab代码实现:
kmeans_test.m
clear close all clc %% 采用随机函数的方法产生训练数据 %第一类数据 mu1=[0 0]; %均值 S1=[0.3 0;0 0.35]; %协方差 data1=mvnrnd(mu1,S1,100); %产生高斯分布数据 %%第二类数据 mu2=[1.25 1.25]; S2=[0.3 0;0 0.35]; data2=mvnrnd(mu2,S2,100); %第三个类数据 mu3=[1.25 -1.25]; S3=[0.3 0;0 0.35]; data3=mvnrnd(mu3,S3,100); %% 显示训练数据 plot(data1(:,1),data1(:,2),'+'); hold on; plot(data2(:,1),data2(:,2),'r+'); plot(data3(:,1),data3(:,2),'g+'); grid on; %三类数据合成一个不带标号的数据类 data=[data1;data2;data3]; %这里的data是不带标号的 %k-means聚类 [u re]=KMeans(data,3); %最后产生带标号的数据,标号在所有数据的最后,意思就是数据再加一维度 [m n]=size(re); %% 最后显示聚类后的数据 figure; hold on; for i=1:m if re(i,3)==1 plot(re(i,1),re(i,2),'ro'); elseif re(i,3)==2 plot(re(i,1),re(i,2),'go'); else plot(re(i,1),re(i,2),'bo'); end end plot(u(:,1),u(:,2),'k+'); grid on;KMeans.m
%N是数据一共分多少类 %data是输入的不带分类标号的数据 %u是每一类的中心 %re是返回的带分类标号的数据 function [u re]=KMeans(data,N) [m n]=size(data); %m是数据个数,n是数据维数 ma=zeros(n); %每一维最大的数 mi=zeros(n); %每一维最小的数 u=zeros(N,n); %随机初始化,最终迭代到每一类的中心位置 for i=1:n ma(i)=max(data(:,i)); %每一维最大的数 mi(i)=min(data(:,i)); %每一维最小的数 for j=1:N u(j,i)=ma(i)+(mi(i)-ma(i))*rand(); %随机初始化,不过还是在每一维[min max]中初始化好些 end end while 1 pre_u=u; %上一次求得的中心位置 for i=1:N tmp{i}=[]; % 公式一中的x(i)-uj,为公式一实现做准备 for j=1:m tmp{i}=[tmp{i};data(j,:)-u(i,:)]; end end quan=zeros(m,N); for i=1:m %计算每一个样本i所属的类别 c=[]; for j=1:N c=[c norm(tmp{j}(i,:))]; end [junk index]=min(c); quan(i,index)=norm(tmp{index}(i,:)); end for i=1:N %更新类别变化后的类别中心位置 for j=1:n u(i,j)=sum(quan(:,i).*data(:,j))/sum(quan(:,i)); end end if norm(pre_u-u)<0.1 %不断迭代直到位置不再变化或变化极小 break; end end re=[]; for i=1:m tmp=[]; for j=1:N tmp=[tmp norm(data(i,:)-u(j,:))]; end [junk index]=min(tmp); re=[re;data(i,:) index]; end end运行结果如下,这是按照高斯分布产生的3*100个二维的训练数据,可以根据需要替换训练数据。
这是Kmeans聚类之后的数据,每种颜色对应着一个类别,中心的黑色十字叉为类别中心。