线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量

线性代数学习笔记(四):

矩阵的理解之— 矩阵的特征值与特征向量

文章目录

  • 线性代数学习笔记(四):
  • 矩阵的理解之— 矩阵的特征值与特征向量
    • 一、特征值与特征向量
      • 1.1. 直观理解
      • 1.2. 定义
    • 二、特征向量与子空间
      • 2.1. 性质1
        • 2.1.1 直观理解
        • 2.1.2 性质1及证明
      • 2.2. 性质2
        • 2.2.1 直观理解
        • 2.2.2. 性质2及证明
    • 三、特征值多项式
      • 3.1. 特征多项式
      • 3.2. 特征多项式的意义
        • 3.2.1. 直观理解
        • 3.2.2. 定理及证明
    • 四、矩阵的秩与行列式
    • 五、线性代数核心定理
    • 六、线性空间和线性变换的理解

一、特征值与特征向量

从前面我们已经知道矩阵可理解为线性空间中的线性变换。
那么对空间中一个元素-向量 α ⃗ \vec \alpha α 做线性变换 → \to 就可表示为 M α ⃗ M\vec \alpha Mα

1.1. 直观理解

如下图,二维线性空间中的一个矩形元素集合,对其线性变换得到的矩形长度是原来2倍。

  • 观察这个元素集合中的元素发现:
    1)沿x轴的某向量 α ⃗ 1 \vec \alpha_1 α 1,经过线性变换后: M α ⃗ = 2 ∗ α ⃗ 1 M\vec \alpha=2*\vec \alpha_1 Mα =2α 1
    2)沿y轴的某向量 α ⃗ 2 \vec \alpha_2 α 2,经过线性变换后: M α ⃗ = 1 ∗ α ⃗ 2 M\vec \alpha=1*\vec \alpha_2 Mα =1α 2
    3)除此之外的其他所有向量 α ⃗ 3 \vec \alpha_3 α 3,经过线性变换后: M α ⃗ ≠ λ ∗ α ⃗ M\vec \alpha≠\lambda*\vec \alpha Mα =λα
    发现
    1)一个矩阵乘一个向量等于一个数乘这个向量。
    2)而在一个线性空间和线性变换中,具有这种特征的向量是少数的。
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第1张图片

1.2. 定义

把满足上述等式 M α ⃗ = λ i α ⃗ M\vec \alpha=\lambda_i\vec \alpha Mα =λiα 中的,
λ i \lambda_i λi称作特征值(本征值), α ⃗ \vec \alpha α 称作特征向量(特征向量)且规定 α ⃗ ≠ 0 \vec \alpha≠0 α =0
其中, λ i \lambda_i λi α ⃗ \vec \alpha α 是依托于矩阵 M M M产生的。
一个线性变换对应与一组特征值和特征向量。

二、特征向量与子空间

2.1. 性质1

2.1.1 直观理解

如下图所示三维空间下的线性变换 M M M,使得:
α ⃗ 1 = ( 001 ) T , λ 1 = 2 \vec \alpha_1=(00 1)^T,\lambda_1=2 α 1=(001)Tλ1=2
α ⃗ 2 = ( 100 ) T , λ 2 = 1 \vec \alpha_2=(100)^T,\lambda_2=1 α 2=(100)Tλ2=1
α ⃗ 3 = ( 010 ) T , λ 3 = 1 \vec \alpha_3=(010)^T,\lambda_3=1 α 3=(010)Tλ3=1( α ⃗ 1 、 α ⃗ 2 、 α ⃗ 3 \vec \alpha_1、\vec \alpha_2、\vec \alpha_3 α 1α 2α 3线性无关)。
对具有相同本征值的向量 α ⃗ 2 、 α ⃗ 3 \vec \alpha_2、\vec \alpha_3 α 2α 3( λ 2 = λ 3 = λ \lambda_2=\lambda_3=\lambda λ2=λ3=λ)为基: α ⃗ 2 、 α ⃗ 3 \vec \alpha_2、\vec \alpha_3 α 2α 3线性无关,构成一个二维的线性子空间。
那么子空间上任一向量 k α ⃗ 2 + l α ⃗ 3 k\vec \alpha_2+l\vec \alpha_3 kα 2+lα 3的特征值是否也是 λ \lambda λ

线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第2张图片

2.1.2 性质1及证明

属于相同 λ \lambda λ的特征向量构成一个子空间。

  • -证明:
    n维空间M,存在 α ⃗ 1 、 α ⃗ 2 、 . . . 、 α ⃗ s \vec \alpha_1、\vec \alpha_2、...、\vec \alpha_s α 1α 2...α s有相同的特征值。
    α ⃗ 1 、 α ⃗ 2 、 . . . 、 α ⃗ s \vec \alpha_1、\vec \alpha_2、...、\vec \alpha_s α 1α 2...α s线性无关)
    M ( k 1 α ⃗ 1 + k 2 α ⃗ 2 + . . . + k s α ⃗ s ) M(k_1\vec \alpha_1+k_2\vec \alpha_2+...+k_s\vec \alpha_s) M(k1α 1+k2α 2+...+ksα s)
    = k 1 ( M α ⃗ 1 ) + k 2 ( M α ⃗ 2 ) + . . . + k s ( M α ⃗ s ) =k_1(M\vec \alpha_1)+k_2(M\vec \alpha_2)+...+k_s(M\vec \alpha_s) =k1(Mα 1)+k2(Mα 2)+...+ks(Mα s)
    = k 1 ( λ α ⃗ 1 ) + k 2 ( λ α ⃗ 2 ) + . . . + k s ( λ α ⃗ s ) =k_1(\lambda\vec \alpha_1)+k_2(\lambda\vec \alpha_2)+...+k_s(\lambda\vec \alpha_s) =k1(λα 1)+k2(λα 2)+...+ks(λα s)
    = λ ( k 1 α ⃗ 1 + k 2 α ⃗ 2 + . . . + k s α ⃗ s ) =\lambda(k_1\vec \alpha_1+k_2\vec \alpha_2+...+k_s\vec \alpha_s) =λ(k1α 1+k2α 2+...+ksα s)
    满足 M α ⃗ = λ i α ⃗ M\vec \alpha=\lambda_i\vec \alpha Mα =λiα

2.2. 性质2

2.2.1 直观理解

一个线性变换矩阵 M M M作用到一线性空间上,会把空间中所有向量分成几组,包括:从属于特征值为 λ 1 \lambda_1 λ1的子空间、从属于特征值为 λ 2 \lambda_2 λ2的子空间、…、从属于特征值为 λ n \lambda_n λn的子空间。

如下图,三维空间由一个二维子空间和一个一维子空间“加和”得到。其中,二维子空间:由x、y轴构成的特征值为1的子空间;一维子空间:由z轴构成的特征值为2的子空间。
线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第3张图片

2.2.2. 性质2及证明

属于不同 λ i \lambda_i λi的特征向量 α ⃗ i \vec \alpha_i α i线性无关。

  • -证明:(反证)
    假设线性相关,则发现与定义规定 α ⃗ ≠ 0 \vec \alpha≠0 α =0矛盾。
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第4张图片
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第5张图片
    上述两个性质也就说明:
    线性变换矩阵 M M M将线性空间划分,每个本征值确定划分下的一个子空间。所以本征值是个很重要的概念。
    知道了本征值本征值对应子空间的维数能就能很好的描述这是一个怎样的线性变换。

相似矩阵具有相同的特征值,且每个特征值对应子空间的维数相同。

三、特征值多项式

3.1. 特征多项式

特征值怎么求?
也即是 M α ⃗ = λ i α ⃗ M\vec \alpha=\lambda_i\vec \alpha Mα =λiα 的求解。
等式右侧乘单位矩阵: M α ⃗ = λ i I α ⃗ M\vec \alpha=\lambda_iI\vec \alpha Mα =λiIα
移项得: ( λ i I − M ) α ⃗ = 0 ⃗ (\lambda_iI-M)\vec \alpha=\vec 0 (λiIM)α =0 α ⃗ ≠ 0 \vec \alpha≠0 α =0
定义一种新的线性变换 M 新 = ( λ i I − M ) , 则 M 新 α ⃗ = 0 ⃗ M_新=(\lambda_iI-M),则M_新\vec \alpha=\vec 0 M=(λiIM)Mα =0
也就是说 M 新 M_新 M这种线性变换作用在n维线性空间中,至少使得某一维度上的所有向量都缩变成 0 ⃗ \vec 0 0 ,那么变换后得到的线性空间维度至少减少一维。这种变换导致的后果是不可逆的。
(就像三维空间到xy轴的投影,这个变换使得z轴上所有向量都变成0,空间维度成2,变换前后体积之比是0!
所以得到: d e t ( λ i I − M ) = 0 det(\lambda_iI-M)=0 det(λiIM)=0,解得 λ i \lambda_i λi

  • 特征多项式定义:

d e t ( λ i I − M ) det(\lambda_iI-M) det(λiIM)称为矩阵 M M M的特征多项式。

3.2. 特征多项式的意义

3.2.1. 直观理解

已经知道了 d e t ( M ) det(M) det(M)的物理意义:线性变换前后微元的体积之比。同样的意义, d e t ( M ) det(M) det(M)的值也等于此线性空间下所有特征值的乘积。这样的结论使得 d e t ( M ) det(M) det(M)的计算更方便。

  • -eg:
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第6张图片
    还是前面的一个例子,对三维空间进行线性变换 M M M后,根据体积变换,得到 d e t ( M ) = V 2 V 1 = 2 det(M)=\frac{V2}{V1}=2 det(M)=V1V2=2
    而三个维度特征值分别是 λ z = 2 、 λ x = λ y = 1 \lambda_z=2、\lambda_x=\lambda_y=1 λz=2λx=λy=1,发现 λ z ∗ λ x ∗ λ y = 2 = d e t ( M ) \lambda_z*\lambda_x*\lambda_y=2=det(M) λzλxλy=2=det(M)

3.2.2. 定理及证明

d e t ( M ) = λ 1 ∗ λ 2 ∗ . . . ∗ λ n det(M)=\lambda_1*\lambda_2*...*\lambda_n det(M)=λ1λ2...λn

  • 证明:
    (1)首先证明相似矩阵的特征多项式一样。
    若M~N,则 d e t ( λ i I − M ) = d e t ( λ i I − N ) det(\lambda_iI-M)=det(\lambda_iI-N) det(λiIM)=det(λiIN)
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第7张图片(2)选矩阵N为特殊对角矩阵:特征值恰在对角线上。
    d e t ( N ) = d e t ( λ i I − N ) = det(N)=det(\lambda_iI-N)= det(N)=det(λiIN)=
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第8张图片
    d e t ( N ) = d e t ( λ i I − M ) = det(N)=det(\lambda_iI-M)= det(N)=det(λiIM)=
    线性代数学习笔记(四):矩阵的理解之— 矩阵的特征值与特征向量_第9张图片
    去负号,得到 d e t ( M ) = λ 1 ∗ λ 2 ∗ . . . ∗ λ n det(M)=\lambda_1*\lambda_2*...*\lambda_n det(M)=λ1λ2...λn

四、矩阵的秩与行列式

详见:
线性代数学习笔记(三):矩阵的理解之— 矩阵的秩与行列式

五、线性代数核心定理

详见:线性代数学习笔记(五):矩阵的理解之— 线性代数核心定理

六、线性空间和线性变换的理解

详见:线性代数学习笔记(一):线性空间的理解

详见:线性代数学习笔记(二):线性变换的理解

你可能感兴趣的:(数学)