机器学习中特征值与特征向量理解

来自:https://www.zhihu.com/question/20507061/answer/16610027

特征值与特征向量

1 代数角度理解

从定义出发,Ax=cx:A为矩阵,c为特征值,x为特征向量。矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(power),并根据所产生的每个特征向量(一般研究特征值最大的那几个)进行分类讨论与研究。

2 几何角度

一、先从旋转和缩放角度,理解一下特征向量和特征值的几何意义

从定义来理解特征向量的话,就是经过一个矩阵变换后,空间沿着特征向量的方向上相当于只发生了缩放,比如我们考虑下面的矩阵:

求这个变换的特征向量和特征值,分别是:

(列向量)和1.81,0.69

用一个形象的例子来说明一下几何意义,我们考虑下面笑脸图案:

为方便演示笑脸图案在0,0和1,1围起来的单位正方形里,同时也用两个箭头标出来了特征向量的方向。经过

的变换,也就是用这个图案中的每个点的坐标和这个矩阵做乘法,得到下面图案:

可以看到就是沿着两个正交的,特征向量的方向进行了缩放。这就是特征向量的一般的几何理解,这个理解我们也可以分解一下,从旋转和沿轴缩放的角度理解,分成三步:

第一步,把特征向量所指的方向分别转到横轴和纵轴

这一步相当于用U的转置,也就是

进行了变换

第二步,然后把特征值作为缩放倍数,构造一个缩放矩阵

矩阵分别沿着横轴和纵轴进行缩放:

第三步,很自然地,接下来只要把这个图案转回去,也就是直接乘U就可以了

所以,从旋转和缩放的角度,一个矩阵变换就是,旋转-->沿坐标轴缩放-->转回来,的三步操作,表达如下:

这里给的是个(半)正定矩阵的例子,对于不正定矩阵,也是能分解为,旋转-->沿坐标轴缩放-->旋转,的三步的,只不过最后一步和第一步的两个旋转不是转回去的关系了(SVD分解),表达如下:

具体可学习线性代数的本质:第十讲:特征向量与特征值

https://www.bilibili.com/video/av6731067/?p=14

作者:7125messi

链接:https://www.jianshu.com/p/b94c48c4290c

來源:

著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

你可能感兴趣的:(机器学习中特征值与特征向量理解)