主成分分析(PCA)原理分析&Python实现

目录

1 引言

2 PCA的意义

3 PCA的实现步骤

4 弄懂PCA要回答的问题

5 PCA原理

5.1 如何降维?

5.2 如何量化投影以后样本点之间的区分度?

5.3 求取k维坐标系

5.3.1 目标函数是否存在最大值?

5.3.2 求解目标函数的最大值以及对应的​编辑

6 第4章节问题解答

6.1 为什么去均值(中心化)?

6.2 为什么要计算协方差矩阵?

6.3 为什么要计算协方差矩阵的特征值和特征向量?为什么要排序?

6.4 主成分个数N怎么确定?

7 Python代码——PCA 

 8 补充说明


1 引言

         PCA代码实现的步骤网上已经有很完善的介绍,也有很多资料介绍过PCA的理论推导过程。本文的侧重点是从理论上解释PCA每一个步骤理由,便于更加深刻地理解PCA,而不是单纯地机械式的码代码。

2 PCA的意义

         PCA的作用是数据降维。

         为什么要进行数据降维呢?
         在许多领域的研究与应用中,往往需要对反映事物的多个变量进行大量的观测,收集大量数据以便进行分析寻找规律。多变量大样本无疑会为研究和应用提供了丰富的信息,但也在一定程度上增加了数据采集的工作量,更重要的是在多数情况下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性,同时对分析带来不便。如果分别对每个指标进行分析,分析往往是孤立的,而不是综合的。盲目减少指标会损失很多信息,容易产生错误的结论。
         因此需要找到一个合理的方法,在减少需要分析的指标同时,尽量减少原指标包含信息的损失,以达到对所收集数据进行全面分析的目的。由于各变量间存在一定的相关关系,因此有可能用较少的综合指标分别综合存在于各变量中的各类信息。主成分分析与因子分析就属于这类降维的方法。

3 PCA的实现步骤

主成分分析(PCA)原理分析&Python实现_第1张图片

4 弄懂PCA要回答的问题

         ① 为什么去均值(中心化)?
         ② 为什么要计算协方差矩阵?
         ③ 为什么要计算协方差矩阵的特征值和特征向量?为什么要按照特征值的大小排序?
         ④  主成分个数N怎么确定?

5 PCA原理

要回答上述罗列的问题,就要从PCA的原理说起。

5.1 如何降维?

最大方差理论:在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。因此我们认为,最好的k维特征是将n维样本点转换为k维后,每一维上的样本方差都很大。

降维本质上就是一个去噪的过程。

         如下图,有6个数据点(已中心化,中心化实际上就是将原点移动到样本的中心点):

主成分分析(PCA)原理分析&Python实现_第2张图片

          将上述6个点分别投影到某一维上(用过原点的直线表示):

主成分分析(PCA)原理分析&Python实现_第3张图片

          那么问题来了,我们选择了两条不同的过原点的直线进行投影,哪种更好呢?根据最大方差理论,左边的更好,因为样本点投影后的区分度最大,也就是方差最大。

从上面的分析可以看出 ,降维就是将原来n维样本点映射到新的k维坐标系(k

实现降维的关键点有两个:
①  量化样本点之间的区分度(目标函数);
② 求取这个k维坐标系。

5.2 如何量化投影以后样本点之间的区分度?

         根据最大方差理论,采用所有样本点投影大小的方差来衡量投影以后样本点之间的区分度。如图所示,蓝色点表示样例,绿色表示在u上的投影,u是直线的斜率也是直线的方向向量,而且是单位向量。绿色点是在u上的投影点,离原点的距离是x^i^Tu,即为单个样本点的投影大小。

         同理,其他样本点的投影大小也可以采用同样的方式计算得到。那么投影以后,所有样本点投影大小的方差(区分度)为:

Var=\tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu-\overline{x^i^Tu})^2

         式中,\overline{x^i^Tu}表示某个特征所有样本点投影的均值。由于原始点在最开始都进行了去均值操作,所以原始样本数据每一维特征的均值都为0,因此投影到u上的特征的均值仍然是0(即\overline{x^i^Tu}=0)。那么上式可以化简为:

Var=\tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu)^2

5.3 求取k维坐标系

         求取k维坐标就是求取各个坐标轴的单位向量u_i,i=1,2,3......k,可以转化成一个求解目标函数最大值的问题:

求解u,使得目标函数

 Var=\tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu)^2 \to max

要解答这个问题,分两步:
① 证明这个目标函数存在最大值;
② 求解当目标函数取最大值时,对应的u。

5.3.1 目标函数是否存在最大值?

目标函数可进行如下变换:

\tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu)^2= \tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu)^T(x^i^Tu)=\tfrac{1}{n}\sum_{i=1}^{n}u^Tx^ix^i^Tu

由于ui无关,上式可变为:

\tfrac{1}{n}u^T(\sum_{i=1}^{n}x^ix^i^T)u

设:

X=\left [ x^1,x^2,.....,x^n \right ]n表示特征数

则目标函数最终可表示为:

\tfrac{1}{n}u^TXX^Tu

其中n是一个常数,不会影响最大值得求解;u^TXX^Tu是一个二次型。设XX^T的特征量是\lambda,对应的特征向量是\xi,则有:

XX^T\xi =\lambda \xi

两边同时转置并乘特征向量\xi

(XX^T\xi )^T\xi =(\lambda \xi )^T\xi

去括号得:

\xi ^TXX^T\xi =\lambda \xi ^T\xi

又:

\xi ^TXX^T\xi =(X^T\xi )^T(X^T\xi )=\begin{Vmatrix} X^T\xi \end{Vmatrix}^2
\lambda \xi ^T\xi =\lambda \begin{Vmatrix} \xi \end{Vmatrix}^2

即:

\begin{Vmatrix} X^T\xi \end{Vmatrix}^2=\lambda \begin{Vmatrix} \xi \end{Vmatrix}^2

由范数的正定性可以得出\lambda \geqslant 0,所以XX^T是半正定的对称矩阵,即u^TXX^Tu是半正定的二次型。由线性代数的相关知识可知,目标函数存在最大值。

5.3.2 求解目标函数的最大值以及对应的u

目标函数可以表示为向量的二范数平方:

u^TXX^Tu=(X^Tu)^T(X^Tu)=\begin{Vmatrix} X^Tu \end{Vmatrix}^2_2=(\tfrac{\begin{Vmatrix} X^Tu \end{Vmatrix}_2}{\begin{Vmatrix} u \end{Vmatrix}_2})^2

求解目标函数最大值的基本问题也就转化为:对一个矩阵,它对一个向量做变换,变换前后的向量的模长伸缩尺度如何才能最大?我们有矩阵代数中的定理知,向量经矩阵映射前后的向量长度之比的最大值就是这个矩阵的最大奇异值,即: 

\tfrac{\begin{Vmatrix} Ax \end{Vmatrix}_2}{\begin{Vmatrix} x \end{Vmatrix}_2}\leqslant \sigma_m

式中,\sigma_m是矩阵A的最大奇异值(亦是矩阵A的二范数),它等于的最大特征值开平方。当x取最大特征值对应的特征量时等号成立。

         转换成我们要求解的问题,令X^T=A,u=x,则有目标函数u^TXX^Tu的最大值等于X^TX的最大特征值,此时u等于X^TX最大特征值对应的特征向量(第二主成分的方向为X^TX的第二大特征值对应的特征向量的方向,以此类推)。那么k维坐标系各个坐标轴的方向向量就是前k个特征值(从大到小排序后)对应的特征向量。

小结:

X=\left [ x^1,x^2,.....,x^n \right ]x^i为列向量,n为特征数

1、目标函数存在最大值,此时u等于X^TX最大特征值对应的特征向量;

2、求解X^TX的特征量和特征向量,并将特征量从大到小排序,则k维坐标系各个坐标轴的方向向量就是X^TX前 k个特征值对应的特征向量。 

6 第4章节问题解答

6.1 为什么去均值(中心化)?

PCA里的中心化是按列去均值,即中心化后每一个特征下所有样本点的均值为0。

① 目标函数\tfrac{1}{n}\sum_{i=1}^{n}(x^i^Tu)^2是基于所有样本点的均值为0(中心化后)推导出来,因此PCA的整个求解过程是以某一特征下所有样本点的均值为0这个条件为前提。也就是说如果原始样本点没有中心化,整个求解过程是不成立的;
② X^TXX的协方差矩阵能够等同的前提也是某一特征下所有样本点的均值为0(这个会在第2个问题详细介绍)。
因此,去均值(中心化)这一步,并不是独立于 PCA 的预处理步骤,而是由 PCA 求解所规定的必须步骤。

6.2 为什么要计算协方差矩阵?

         从PCA的理论可知,k维坐标系的各个坐标轴的方向向量就是X^TX前 k个特征值(排序后)对应的特征向量。要求解k为坐标系,只需要求解矩阵X^TX的特征值和特征向量即可。那为什么要求解X的协方差矩阵呢? 

实际上,当某一特征下所有样本的均值为0(中心化)时,X^TXX的协方差矩阵的最大特征值对应的特征向量是等同的。 

举例说明,假设有两个特征,则有:

X^TX=\begin{pmatrix} (x^1)^T\\ (x^2)^T \end{pmatrix}\begin{pmatrix} x^1 & x^2 \end{pmatrix}=\begin{pmatrix} (x^1)^Tx^1 &(x^1)^Tx^2 \\ (x^2)^Tx^1 & (x^2)^T x^2\end{pmatrix}

cov(X)=\begin{pmatrix} cov(x^1,x^1) &cov(x^1,x^2) \\ cov(x^2,x^1)& cov(x^2,x^2) \end{pmatrix}=\begin{pmatrix} E[(x^1-\overline{x^1})^T(x^1-\overline{x^1})] &E[(x^1-\overline{x^1})^T(x^2-\overline{x^2})]\\E[(x^2-\overline{x^2})^T(x^1-\overline{x^1})] & E[(x^2-\overline{x^2})^T(x^2-\overline{x^2})]\end{pmatrix}

中心化后列向量的均值为0,\overline{x^i}=0,上式可化简为:

cov(X)=\begin{pmatrix} E[(x^1)^Tx^1] &E[(x^1)^Tx^2]\\E[(x^2)^Tx^1] & E[(x^2)^Tx^2]\end{pmatrix}=\frac{1}{n-1}\begin{pmatrix} (x^1)^Tx^1&(x^1)^Tx^2 \\ (x^2)^T x^1& (x^2)^Tx^2 \end{pmatrix}

cov函数求协方差的时候是除以n-1,所以则有:

\frac{1}{n-1}X^TX=cov(X)
式中,n表示样本数,cov()表示求协方差矩阵。由于X^TXcov(X)是线性关系,所以它们的最大特征值对应的特征向量是等同的。上面的证明过程也同样说明了中心化的必要性。

也可以采用如下代码来验证:

import numpy as np
x=np.array([[2.5,2.4],
 [0.5,0.7],
 [2.2,2.9],
 [1.9,2.2],
 [3.1,3. ]])#行数表示样本数,列数表示特征数
print(x)
raw=len(x) #行数
col=len(x[0]) #列数
x_new=np.zeros((raw, col))#创建全为0的数组
x_new=x-np.mean(x,axis=0)#按列去均值
x_cov_1=np.dot(x_new.T,x_new)/(raw-1)#采用(X^T)X的方式计算协方差矩阵
x_cov_2=np.cov(x_new.T) #采用cov()函数计算协方差矩阵,Python里面计算协方差是按照行向量来的
print(x_cov_1)
print(x_cov_2)

6.3 为什么要计算协方差矩阵的特征值和特征向量?为什么要排序?

         求解特征向量是为了获取k维坐标系的方向向量,特征向量对应的特征量大小代表了原始样本点投影以后携带的信息多少。特征量越大,携带的信息量就越多。降维就是保留携带信息多的投影方向,剔除携带信息少的投影方向,从而实现数据在降维的同时,而不失真。

6.4 主成分个数N怎么确定?

         进行主成分分析的目的之一是减少变量的个数,所以一般不会选取P个主成分,而是取k(k

  • 累积方差贡献率:当前k个主成分的累积方差贡献率达到某一特定值(一般85%以上),就可以保留前k个主成分;
  • 特征值:一般选取特征值大于等于1的主成分;
  • ​​​​​​​碎石图:一般选取碎石图的曲线上由陡峭变为平稳的结点前的结点为主成分。​​​​​​​

其中,
方差贡献率:指的是一个主成分所能够解释的方差占全部方差的比例,这个值越大,说明主成分综合原始变量的信息的能力越强。 计算公式如下:

\frac{\lambda_i}{\sum_{k=1}^{p}(\lambda _k)}(i=1,2,3,......,p)

累积方差贡献率:主成分筛选中所确定的前m个主成分所能解释的全部方差占总方差的比例称为累计方差贡献率。

\frac{\sum_{k=1}^{i}(\lambda_k)}{\sum_{k=1}^{p}(\lambda _k)}(i=1,2,3,......,p)

碎石图:纵轴是特征值,横轴是成分个数,通过拐点来判断获取的主成分个数。

主成分分析(PCA)原理分析&Python实现_第4张图片

7 Python代码——PCA 

import numpy as np
x=np.array([[2.5,0.5,2.2,1.9,3.1,2.3,2,1,1.5,1.1],
            [2.4,0.7,2.9,2.2,3.0,2.7,1.6,1.1,1.6,0.9]])
x=x.T #输入数据,样本数为10,特征数为2;行数为样本数,列数是特征数
print(x)
#-----按列中心化-----#
raw=len(x) #行数
col=len(x[0]) #列数
x_new=np.zeros((raw, col))#创建全为0的数组
x_new=x-np.mean(x,axis=0)

#-----求协方差矩阵-----#
x_cov=np.cov(x_new.T) #Python里cov()函数是按照行向量来计算协方差的

#-----求协方差矩阵的特征值和特征向量
feature_value,feature_vector=np.linalg.eig(x_cov)  #由特征值、特征向量组成的元组,第一个元素是特征值,第二个是特征量

#-----特征值由大到小排序-----#
index=np.argsort(feature_value)[::-1] #获取特征值从大到小排序前的索引
feature_value_sort=feature_value[index] #特征值由大到小排序
feature_vector_sort=feature_vector[:,index] #特征向量按照特征值的顺序排列

#-----选取主成分,可以根据累积贡献率来选取-----#
for i in range(len(feature_value_sort)):
    if sum(feature_value_sort[0:i+1])/np.sum(feature_value_sort)>0.9:  #累积贡献率大于90%的主成分
        k=i+1    #主成分个数
        break
main_component = feature_vector_sort[:,0:k] #k维向量

#-----将样本点映射到k维向量上-----#
final_data=np.dot(x_new,main_component)  #n维数据变成k维数据
print(final_data)

参考链接:
【建模应用】PCA主成分分析原理详解 - pigcv - 博客园 
一篇深入剖析PCA的好文 - 能力工场-小马哥 - 博客园
主成分分析法基本步骤(PCA) - 哔哩哔哩

 8 补充说明

也可以采用拉格朗日乘子法来求最大值,思路更加清晰简单。从第5章可以知道PCA求解的问题可以描述为:

\left\{\begin{matrix} u^TXX^Tu\rightarrow max\\ s.t.u^Tu=1 \end{matrix}\right.

构造拉格朗日函数:

L(u)=u^TX^TXu-\lambda (1-u^Tu)

u求导有:

\frac{\partial L}{\partial u}=X^TXu-\lambda u=0

求解上述方程有:

X^TXu=\lambda u​​​​​​​

从上式可以看出,u为矩阵X^TX的特征向量,\lambda为矩阵X^TX的特征值。此时,目标函数取极值,极值为:

u^TX^TXu=u^T\lambda u=\lambda

于是我们发现,X投影后的方差就是协方差矩阵的特征值。最大方差也就是协方差矩阵(X^TX)最大的特征值,最佳投影方向就是最大特征值所对应的特征向量,次佳就是第二大特征值对应的特征向量,以此类推。

你可能感兴趣的:(光谱数据处理&定量分析,python,算法,经验分享,机器学习)