【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量

本系列笔记为方便日后自己查阅而写,更多的是个人见解,也算一种学习的复习与总结,望善始善终吧~

何为特征向量、特征值

Ax 就好比f(x),这是一种针对多维的操作,而我们关心的就是经过变换后方向不变的向量即 Ax=λx ,x就是特征向量, λ 就是特征值。

我们的目的就是要找到矩阵 A 的所有特征值和对应的特征向量,很自然的我们会关注存在 λ 为零的情况,此时要想特征向量 x 存在,那么就等于要使得 Ax=0 中的 A 为奇异矩阵Singular Matrix,反之,当 A 为奇异矩阵Singular Matrix,则0为其中一个特征值,特征向量在其null space。

试试看不同矩阵有何特性吧,对于投影矩阵,很明显在其column space中的vector的投影就是它自己,其方向不变,故存在特征值为1的特征向量,还有一个什么样的向量?垂直于column space的,因为垂直时投影为0,存在特征值为0的特征向量(垂直于column space)。

剧透关于特征值的性质

nn 矩阵有 n 个特征值;特征值的和等于矩阵对角线上所有元素的和,这被称为迹trace;特征值的积等于行列式的值。

回到 Ax=λx

Ax=λx
(AλI)x=0
(AλI)
det(AλI)=0
这个方程就是求解特征值的核心,有了方程我们就可以解出特征值,有了特征值就能求解对应的特征向量。

好玩的性质

对于 A 矩阵和 A+3I 这个矩阵的特征值和特征向量有什么特点?
Ax=λx (A+3I)=λx+3x=(λ+3)x
所以特征向量不变,特征值加3,这或许从另一个角度帮助我们理解何为“特征”。

一些特殊的情况

【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量_第1张图片
这东西看起来没有特征向量,貌似我们找不到一个旋转90度后是其本身的向量
【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量_第2张图片
看具体的方程,好吧,我们发现了,解居然是复数,这下麻烦了,现在要在线性代数引入复数啊!难怪老师说这里会是问题的根源。
回过头来观察一下,你会发现越是接近对称的矩阵,其值就越是倾向于实数,而越是接近反对称的矩阵,其值就越是倾向于复数。

更糟糕的情况

老师说:这节课把所有麻烦的情况都讲了,这样我们下节课就可以开心了。哎,我们经历了有解,看似无解实则有复数解,差一个看似有解结果解一样和无解。老师讲了一个有重复解:
【线性代数公开课MIT Linear Algebra】 第二十一课 特征值与特征向量_第3张图片
这个情况下我们只能解出一个特征向量,这样的矩阵我们称呼为退化矩阵。

PS:另一位仁兄的笔记
http://blog.csdn.net/suqier1314520/article/details/13998953

你可能感兴趣的:(麻省理工,特征值,特征向量)