【机器学习】主元分析(PCA)以及与SVD的区别联系

参考文章:如何理解主元分析(PCA)?

主元分析的目的是降低数据的维度。主元分析也就是PCA,主要用于数据降维。

1 什么是降维?

比如说有如下的房价数据:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第1张图片

这种一维数据可以直接放在实数轴上:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第2张图片

不过数据还需要处理下,假设房价样本用X表示,那么均值为:

然后平移到以均值\bar{X}为原点:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第3张图片

\bar{X}为原点的意思是,以\bar{X}为0,那么上述表格的数字就需要修改下:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第4张图片

这个过程称为“中心化”。“中心化”处理的原因是,这些数字后继会参与统计运算,比如求样本方差,中间就包含了X_i-\bar{X}

说明下,虽然样本方差的分母应该是{\color{Red} n-1},这里分母采用n是因为这样算出来的样本方差Var(X)一致估计量,不会太影响计算结果并且可以减少运算负担。

用“中心化”后的数据就可以直接算出“房价”的样本方差:

“中心化”之后可以看出数据大概可以分为两类:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第5张图片

现在新采集了房屋的面积,可以看出两者完全正相关,有一列其实是多余的:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第6张图片

求出房屋样本、面积样本的均值,分别对房屋样本、面积样本进行“中心化”后得到:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第7张图片

房价(X)和面积(Y)的样本协方差是这样的(这里也是用的一致估计量):

可见“中心化”后的数据可以简化上面这个公式,这点后面还会看到具体应用。

把这个二维数据画在坐标轴上,横纵坐标分别为“房价”、“面积”,可以看出它们排列为一条直线:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第8张图片

如果旋转坐标系,让横坐标和这条直线重合:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第9张图片

旋转后的坐标系,横纵坐标不再代表“房价”、“面积”了,而是两者的混合(术语是线性组合),这里把它们称作“主元1”、“主元2”,坐标值很容易用勾股定理计算出来,比如a在“主元1”的坐标值为:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第10张图片

很显然a在“主元2”上的坐标为0,把所有的房间换算到新的坐标系上:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第11张图片

因为“主元2”全都为0,完全是多余的,我们只需要“主元1”就够了,这样就又把数据降为了一维,而且没有丢失任何信息:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第12张图片

2 非理想情况如何降维?

上面是比较极端的情况,就是房价和面积完全正比,所以二维数据会在一条直线上。

现实中虽然正比,但总会有些出入:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第13张图片

把这个二维数据画在坐标轴上,横纵坐标分别为“房价”、“面积”,虽然数据看起来很接近一条直线,但是终究不在一条直线上:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第14张图片

那么应该怎么降维呢?分析一下,从线性代数的角度来看,二维坐标系总有各自的标准正交基(也就是两两正交、模长为1的基),e_1,e_2

【机器学习】主元分析(PCA)以及与SVD的区别联系_第15张图片

在某坐标系有一个点,a=\begin{pmatrix} x\\ y \end{pmatrix},它表示在该坐标系下标准正交基e_1,e_2的线性组合:

只是在不同坐标系中,x,y的值会有所不同(旋转的坐标表示不同的坐标系):动图,建议看原网站。

【机器学习】主元分析(PCA)以及与SVD的区别联系_第16张图片

因为a到原点的距离d不会因为坐标系改变而改变:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第17张图片

而:

所以,在某坐标系下分配给x较多,那么分配给y的就必然较少,反之亦然。最极端的情况是,在某个坐标系下,全部分配给了x,使得y=0

【机器学习】主元分析(PCA)以及与SVD的区别联系_第18张图片

那么在这个坐标系中,就可以降维了,去掉e_2并不会丢失信息:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第19张图片

如果是两个点a=\begin{pmatrix} x_1\\y_1 \end{pmatrix},b=\begin{pmatrix} x_2\\y_2 \end{pmatrix},情况就复杂一些:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第20张图片

为了降维,应该选择尽量多分配给x_1,x_2,少分配给y_1,y_2的坐标系。

3 主元分析(PCA)

具体怎么做呢?假设有如下数据:(a、b为样本,X、Y为特征)

【机器学习】主元分析(PCA)以及与SVD的区别联系_第21张图片

上面的数据这么解读,表示有两个点:

这两个点在初始坐标系下(也就是自然基e_1 = \begin{pmatrix} 1\\0 \end{pmatrix},e_2=\begin{pmatrix} 0\\1 \end{pmatrix})下坐标值为:

图示如下:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第22张图片

随着坐标系的不同,X_1,X_2的值会不断变化:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第23张图片

要想尽量多分配给X_1,X_2,借鉴最小二乘法(请参考如何理解最小二乘法)的思想,就是让:

要求这个问题,先看看X_1,X_2怎么表示,假设:

根据点积的几何意义(如何通俗地理解协方差和点积)有:

那么:

上式其实是一个二次型(可以参看如何通俗地理解二次型):

【机器学习】主元分析(PCA)以及与SVD的区别联系_第24张图片

这里矩阵P就是二次型,是一个对称矩阵,可以进行如下的奇异值分解(可以参看如何通俗地理解奇异值分解):

其中,U为正交矩阵,即UU^T=I

\Sigma是对角矩阵:

其中,\sigma_1,\sigma_2是奇异值,\sigma_1>\sigma_2

P代回去:

因为U是正交矩阵,所以令:

所得的n也是单位向量,即:

继续回代:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第25张图片

最初求最大值的问题就转化为了:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第26张图片

感兴趣可以用拉格朗日乘子法计算上述条件极值(参看如何通俗地理解拉格朗日乘子法以及KKT条件),结果是当n_1=1,n_2=0时取到极值。

因此可以推出要寻找的主元1,即:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第27张图片

4 协方差矩阵

上一节的数据:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第28张图片

我们按行来解读,得到了两个向量a,b

【机器学习】主元分析(PCA)以及与SVD的区别联系_第29张图片

在这个基础上推出了矩阵:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第30张图片

这个矩阵是求解主元1、主元2的关键。

如果我们按列来解读,可以得到两个向量X,Y

【机器学习】主元分析(PCA)以及与SVD的区别联系_第31张图片

即:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第32张图片

那么刚才求出来的矩阵就可以表示为:

之前说过“中心化”后的样本方差(关于样本方差、协方差可以参看这篇文章:如何通俗地理解协方差和点积):

【机器学习】主元分析(PCA)以及与SVD的区别联系_第33张图片

样本协方差为:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第34张图片

两相比较可以得到一个新的矩阵,也就是协方差矩阵:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第35张图片

P,Q都可以进行奇异值分解:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第36张图片

可见,协方差矩阵Q的奇异值分解和P相差无几,只是奇异值缩小了n倍,但是不妨碍奇异值之间的大小关系,所以在实际问题中,往往都是直接分解协方差矩阵Q

5 实战

回到使用之前“中心化”了的数据:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第37张图片

这些数据按行,在自然基下画出来就是:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第38张图片

按列解读得到两个向量:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第39张图片

组成协方差矩阵:

进行奇异值分解:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第40张图片

根据之前的分析,主元1应该匹配最大奇异值对应的奇异向量,主元2匹配最小奇异值对应的奇异向量,即:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第41张图片

以这两个为主元画出来的坐标系就是这样的:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第42张图片

如下算出新坐标,比如对于a

以此类推,得到新的数据表:

【机器学习】主元分析(PCA)以及与SVD的区别联系_第43张图片

主元2整体来看,数值很小,丢掉损失的信息也非常少,这样就实现了非理想情况下的降维。

 

你可能感兴趣的:(机器学习,数学)