特征工程——主成分分析(PCA)的原理解析

目录

  • 一、使用最大方差理论解析PCA原理
    • 1、原理解析:
    • 2、总结:
  • 二、最小平方误差理论解析PCA原理
    • 1、原理解析
    • 2、总结

在机器学习领域中,我们对原始数据进行特征提取,有时会得到比较高维的特征向量。在这些向量所处的高维空间中,包含很多的冗余和噪声。我们希望通过降维的方式来寻找数据内部的特性,从而提升特征表达能力,降低训练复杂度。主成分分析(Principal Components Analysis,PCA)作为降维中最经典的方法,至今已有100多年的历史,它属于一种线性、非监督、全局的降维算法,是面试中经常被问到的问题。

接下来分别从 两个理论 分析一下PCA的原理(来源于百面机器学习)。

一、使用最大方差理论解析PCA原理

1、原理解析:

PCA旨在找到数据中的主成分,并利用这些主成分表征原始数据,从而达到降维的目的。举一个简单的例子,在三维空间中有一系列数据点,这些点分布在一个过原点的平面上。如果我们用自然坐标系x,y,z三个轴来表示数据,就需要使用三个维度。而实际上,这些点只出现在一个二维平面上,如果我们通过坐标系旋转变换使得数据所在平面与x,y平面重合,那么我们就可以通过x′,y′两个维度表达原始数据,并且没有任何损失,这样就完成了数据的降维。而x′,y′两个轴所包含的信息就是我们要找到的主成分。

但在高维空间中,我们往往不能像刚才这样直观地想象出数据的分布形式,也就更难精确地找到主成分对应的轴是哪些。不妨,我们先从最简单的二维数据来看看PCA究竟是如何工作的,如下图所示。

特征工程——主成分分析(PCA)的原理解析_第1张图片
特征工程——主成分分析(PCA)的原理解析_第2张图片
图(a)是二维空间中经过中心化的一组数据,我们很容易看出主成分所在的轴(以下称为主轴)的大致方向,即图(b)中黄线所处的轴。因为在黄线所处的轴上,数据分布得更为分散,这也意味着数据在这个方向上方差更大。在信号处理领域,我们认为信号具有较大方差,噪声具有较小方差,信号与噪声之比称为信噪比。信噪比越大意味着数据的质量越好,反之,信噪比越小意味着数据的质量越差。由此我们不难引出PCA的目标,即最大化投影方差,也就是让数据在主轴上投影的方差最大
特征工程——主成分分析(PCA)的原理解析_第3张图片
特征工程——主成分分析(PCA)的原理解析_第4张图片
特征工程——主成分分析(PCA)的原理解析_第5张图片
在这里插入图片描述
特征工程——主成分分析(PCA)的原理解析_第6张图片
特征工程——主成分分析(PCA)的原理解析_第7张图片
特征工程——主成分分析(PCA)的原理解析_第8张图片

2、总结:

至此,我们从最大化投影方差的角度解释了PCA的原理、目标函数和求解方法。其实,PCA还可以用其他思路进行分析,比如从最小回归误差的角度得到新的目标函数。但最终我们会发现其对应的原理和求解方法与本文中的是等价的。另外,由于PCA是一种线性降维方法,虽然经典,但具有一定的局限性。我们可以通过核映射对PCA进行扩展得到核主成分分析(KPCA),也可以通过流形映射的降维方法,比如等距映射、局部线性嵌入、拉普拉斯特征映射等,对一些PCA效果不好的复杂数据集进行非线性降维操作。

二、最小平方误差理论解析PCA原理

1、原理解析

我们还是考虑二维空间中的样本点,如下图所示。上一节求解得到一条直线使得样本点投影到该直线上的方差最大。从求解直线的思路出发,很容易联想到数学中的线性回归问题,其目标也是求解一个线性函数使得对应直线能够更好地拟合样本点集合。如果我们从这个角度定义PCA的目标,那么问题就会转化为一个回归问题。
特征工程——主成分分析(PCA)的原理解析_第9张图片

顺着这个思路,在高维空间中,我们实际上是要找到一个d维超平面,使得数据点到这个超平面的距离平方和最小。以d=1为例,超平面退化为直线,即把样本点投影到最佳直线,最小化的就是所有点到直线的距离平方之和,如下图所示。

特征工程——主成分分析(PCA)的原理解析_第10张图片
特征工程——主成分分析(PCA)的原理解析_第11张图片
特征工程——主成分分析(PCA)的原理解析_第12张图片
特征工程——主成分分析(PCA)的原理解析_第13张图片

特征工程——主成分分析(PCA)的原理解析_第14张图片
特征工程——主成分分析(PCA)的原理解析_第15张图片
在这里插入图片描述

2、总结

至此,我们从最小平方误差的角度解释了PCA的原理、目标函数和求解方法。不难发现,这与最大方差角度殊途同归,从不同的目标函数出发,得到了相同的求解方法。

你可能感兴趣的:(特征工程,机器学习)