主成分分析(Principal components analysis)

1.PCA理论介绍       

    Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的

空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。

    通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息(如点和点之间的距离关系)都丢失了,而如果映射后方差

尽可能的大,那么数据点则会分散开来,以此来保留更多的信息。可以证明,PCA是丢失原始数据信息最少的一种线性降维方式。

(实际上就是最接近原始数据,但是PCA并不试图去探索数据内在结构)

    在具体介绍PCA之前,先来了解一下协方差矩阵的概念。

    协方差总是在两维数据之间进行度量,如果我们具有超过两维的数据,将会有多于两个的协方差。例如对于三维数据(x, y, z维),需要计算cov(x,y),cov(y,z)和cov(z,x)。获得所有维数之间协方差的方法是计算协方差矩阵。维数据协方差矩阵的定义为

    这个公式告诉我们,如果我们有一个n维数据,那么协方差矩阵就是一个n行n列的方矩阵,矩阵的每一个元素是两个不同维数据之间的协方差。

对于一个3维数据(x,y,z),协方差矩阵有3行3列,它的元素值为:

主成分分析(Principal components analysis)_第1张图片


协方差定义为:
COV(X,Y)=E[(X-E(X))(Y-E(Y))]=EXY-EX*EY        其中,E是期望值。

需要注意的是:沿着主对角线,可以看到元素值是同一维数据之间的协方差,这正好是该维数据的方差。对于其它元素,因为cov(a,b)=cov(b,a),所以协方差矩阵是关于主对角线对称的。

     在介绍了协方差矩阵的概念后,我们来看一下PCA的计算过程:

    1)获取数据

    2)减去均值

    3)计算协方差矩阵

    4)计算协方差矩阵的特征矢量和特征值

    5)选择特征值最大的K个特征值对应的特征向量作为主成分

    6)用主成分矩阵乘以原始数据得到降维后的数据

      

    举例说明:     

    假设我们得到的2维数据如下:

     

主成分分析(Principal components analysis)_第2张图片

    行代表了样例,列代表特征,这里有10个样例,每个样例两个特征。可以这样认为,有10篇文档,x是10篇文档中“learn”出

现的TF-IDF,y是10篇文档中“study”出现的TF-IDF。也可以认为有10辆汽车,x是千米/小时的速度,y是英里/小时的速度等。

    第一步分别求x和y的平均值,然后对于所有的样例,都减去对应的均值。这里x的均值是1.81,y的均值是1.91,那么一个样例

减去均值后即为(0.69,0.49),得到

     

主成分分析(Principal components analysis)_第3张图片

     第二步,求特征协方差矩阵,如果数据是3维,那么协方差矩阵是

     

clip_image003[4]

     这里只有x和y,求解得

     

clip_image004[4]

    对角线上分别是x和y的方差,非对角线上是协方差。协方差大于0表示x和y若有一个增,另一个也增;小于0表示一个增,一个

减;协方差为0时,两者独立。协方差绝对值越大,两者对彼此的影响越大,反之越小。

    第三步,求协方差的特征值和特征向量,得到

     

主成分分析(Principal components analysis)_第4张图片

    上面是两个特征值,下面是对应的特征向量,特征值0.0490833989对应特征向量为clip_image007[4],这里的特征向

量都归一化为单位向量。

    第四步,将特征值按照从大到小的顺序排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为列向量组成特征向量

矩阵。

     这里特征值只有两个,我们选择其中最大的那个,这里是1.28402771,对应的特征向量是clip_image009[6]

    第五步,将样本点投影到选取的特征向量上。假设样例数为m,特征数为n,减去均值后的样本矩阵为DataAdjust(m*n),协方差

矩阵是n*n,选取的k个特征向量组成的矩阵为EigenVectors(n*k)。那么投影后的数据FinalData为

     clip_image011[4]

     这里是

     FinalData(10*1) = DataAdjust(10*2矩阵)×特征向量clip_image009[7]

     得到结果是   

主成分分析(Principal components analysis)_第5张图片

     这样,就将原始样例的n维特征变成了k维,这k维就是原始特征在k维上的投影。

     上面的数据可以认为是learn和study特征融合为一个新的特征叫做LS特征,该特征基本上代表了这两个特征。

     上述过程有个图描述: 

主成分分析(Principal components analysis)_第6张图片

    正号表示预处理后的样本点,斜着的两条线就分别是正交的特征向量(由于协方差矩阵是对称的,因此其特征向量正交),最

后一步的矩阵乘法就是将原始样本点分别往特征向量对应的轴上做投影。

    如果取的k=2,那么结果是  

主成分分析(Principal components analysis)_第7张图片

     这就是经过PCA处理后的样本数据,水平轴(上面举例为LS特征)基本上可以代表全部样本点。整个过程看起来就像将坐标系

做了旋转,当然二维可以图形化表示,高维就不行了。上面的如果k=1,那么只会留下这里的水平轴,轴上是所有点在该轴的投影。

    整个PCA过程貌似及其简单,就是求协方差的特征值和特征向量,然后做数据转换。但是有没有觉得很神奇,为什么求协方差的

特征向量就是最理想的k维向量?其背后隐藏的意义是什么?整个PCA的意义是什么?

 

2. PCA理论基础

    要解释为什么协方差矩阵的特征向量就是k维理想特征,我看到的有三个理论:分别是最大方差理论、最小错误理论和坐标轴相

关度理论。这里简单探讨最大方差理论。

  • 最大方差理论

     在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。如前面的图,样本在横轴上的投影方

差较大,在纵轴上的投影方差较小,那么认为纵轴上的投影是由噪声引起的。因此我们认为,最好的k维特征是将n维样本点转换为k维后,每一维上的

样本方差都很大。

     比如下图有5个样本点:(已经做过预处理,均值为0,特征方差归一)

     

主成分分析(Principal components analysis)_第8张图片

     下面将样本投影到某一维上,这里用一条过原点的直线表示(前处理的过程实质是将原点移到样本点的中心点)。

     

主成分分析(Principal components analysis)_第9张图片

     假设我们选择两条不同的直线做投影,那么左右两条中哪个好呢?根据我们之前的方差最大化理论,左边的好,因为投影后的样本点之间方差最大。

     这里先解释一下投影的概念:

     

主成分分析(Principal components analysis)_第10张图片

     红色点表示样例clip_image037[14],蓝色点表示clip_image037[15]在u上的投影,u是直线的斜率也是直线的方向向量,而且是单位向量。蓝色点是clip_image037[16]在u上的

投影点,离原点的距离是clip_image039[4](即clip_image030[4]或者clip_image041[4])由于这些样本点(样例)的每一维特征均值都为0,因此投影到u上的样本点

(只有一个到原点的距离值)的均值仍然是0。

     回到上面左右图中的左图,我们要求的是最佳的u,使得投影后的样本点方差最大。

     由于投影后均值为0,因此方差为:

     

主成分分析(Principal components analysis)_第11张图片

     中间那部分就是样本特征的协方差矩阵(clip_image037[17]的均值为0,一般协方差矩阵都除以m-1,这里用m)。

     用clip_image044[10]来表示clip_image046[4]clip_image048[6]表示clip_image050[4],那么上式写作

     clip_image052[4] 

     由于u是单位向量,即clip_image054[4],上式两边都左乘u得,clip_image056[4]

     即clip_image058[4]

     We got it!clip_image044[11]就是clip_image048[7]的特征值,u是特征向量。最佳的投影直线是特征值clip_image044[12]最大时对应的特征向量,其次是clip_image044[13]第二大对应的特征向量,依次类推。

     因此,我们只需要对协方差矩阵进行特征值分解,得到的前k大特征值对应的特征向量就是最佳的k维新特征,而且这k维新特

征是正交的。得到前k个u以后,样例clip_image037[18]通过以下变换可以得到新的样本。

     

主成分分析(Principal components analysis)_第12张图片

     其中的第j维就是clip_image037[19]clip_image061[4]上的投影。通过选取最大的k个u,使得方差较小的特征(如噪声)被丢弃。


 

3. 总结

 

      PCA技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数

省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。

     PCA技术的一个很大的优点是,它是完全无参数限制的。在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,

最后的结果只与数据相关,与用户是独立的。 但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特

征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。

主成分分析(Principal components analysis)_第13张图片

     黑色点表示采样数据,排列成转盘的形状。 容易想象,该数据的主元是clip_image077或是旋转角clip_image078

     在上图的例子中,PCA找出的主元将是clip_image077[1]。但是这显然不是最优和最简化的主元。clip_image077[2]之间存在着非线性的关系。根据先验的知识可知旋

转角clip_image078[1]是最优的主元(类比极坐标)。则在这种情况下,PCA就会失效。但是,如果加入先验的知识,对数据进行某种划归,就可以将数据转化为以clip_image078[2]

为线性的空间中。这类根据先验知识对数据预先进行非线性转换的方法就成为kernel-PCA,它扩展了PCA能够处理的问题的范围,又可以结合一些先

验约束,是比较流行的方法。

     此外,由于PCA追求的是在降维之后能够最大化保持数据的内在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。但是这

样投影以后对数据的区分作用并不大,反而可能使得数据点揉杂在一起无法区分。这也是PCA存在的最大一个问题,这导致使用PCA在很多情况下的分

类效果并不好。具体可以看下图所示,若使用PCA将数据点投影至一维空间上时,PCA会选2轴,这使得原本很容易区分的两簇点被揉杂在一起变得

无法区分;而这时若选择1轴将会得到很好的区分结果。

主成分分析(Principal components analysis)_第14张图片


   Discriminant Analysis所追求的目标与PCA不同,不是希望保持数据最多的信而是希望数据在降维后能够很容易地被区分开来

   下一节介绍的LDA方法,是另一种常见的线性降维方法。

 

 

 

参考:

1)http://www.cnblogs.com/xbinworld/archive/2011/11/24/pca.html

2)http://www.cnblogs.com/jerrylead/archive/2011/04/18/2020209.html

3)http://jacobyuan.blog.sohu.com/148317731.html

 

你可能感兴趣的:(主成分分析(Principal components analysis))