AI 人工智能学习之特征值

特征向量和特征值

几乎所有的向量在乘以矩阵后都会改变方向,某些特殊的向量和位于同一个方向,它们称之为特征向量。

数字称为特征值。它告诉我们在乘以后,向量是怎么被拉伸、缩小、反转或者不变得。意味着特征向量存在于矩阵的零空间中。任意向量都是单位矩阵的特征向量,因为,其特征值为 1。

如果把矩阵看作n维空间下的一个线性变换,这个变换有很多的变换方向,通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。利用这前N个变化方向,就可以近似这个矩阵(变换)。其中的N个变化方向,就是这个矩阵最重要的“特征”。
如果把矩阵看作是位移,那么特征值 = 位移的速度,特征向量 = 位移的方向。
特征向量在一个矩阵的作用下作伸缩运动,伸缩的幅度由特征值确定(注意观察定义式)。特征值大于1,所有属于此特征值的特征向量变长;特征值属于(0, 1),特征向量缩短;特征值小于0,特征向量则反向延长。

在线性代数中,左乘一个矩阵是对应着行变换,右乘一个矩阵对应列变换,其实际的作用也就是对常规坐标系进行了迁移。那么,【重点】对于在普通二维坐标系下的向量,它在矩阵描述空间中的表示与自己单纯的进行拉伸或者缩放的效果一致,满足这种特殊性的就是特征矩阵,对应的拉伸量就是特征值。

定义

AI 人工智能学习之特征值_第1张图片

AI 人工智能学习之特征值_第2张图片

特征空间

特征空间,特征向量所在的空间,每一个特征对应特征空间中的一维坐标。
x轴是一个一维空间。这个一维空间的基可以是向量(1,0)。
在每一个特征方向上,特征向量是无穷多的,而它们都共线。这些无穷多的特征向量构成一个特征空间。而由于它们都共线,自然就有这个空间的秩为1了。

矩阵分解

矩阵分解是将矩阵拆解为数个矩阵的乘积,可分为三角分解、满秩分解、QR分解、Jordan分解和SVD(奇异值)分解等,常见的有三种:1)三角分解法,2)QR 分解法,3)奇异值分解法 (SVD)。

空间变换

矩阵的乘法的几何意义就是空间变换。

AI 人工智能学习之特征值_第3张图片

 基变换

AI 人工智能学习之特征值_第4张图片

特征值分解

矩阵的特征值分解又可以称作矩阵的对角化、谱分解。目的是将矩阵分解为由其特征值和特征向量表示的矩阵之积的方法。

AI 人工智能学习之特征值_第5张图片

AI 人工智能学习之特征值_第6张图片

 SVD分解

AI 人工智能学习之特征值_第7张图片

AI 人工智能学习之特征值_第8张图片 

 计算 SVD

AI 人工智能学习之特征值_第9张图片

 

你可能感兴趣的:(AI,人工智能)