线性代数之特征值与特征向量

[作者:byeyear,首发于cnblogs.com,转载请注明。联系:[email protected]]

1. 一个例子:随机矩阵与其稳态向量q满足Aq=q,此时 特征值λ=1,特征向量即稳态向量q。

2. 由Ax=λx,可以推出(A-λI)x=0。由于特征向量不能为0,该方程必须有非平凡解,因此A-λI不可逆;

    所以det(A-λI)=0。据此可解出所有λ,再跟据λ可解出特征向量。det(A-λI)=0称为特征方程。

3. 根据齐次线性方程组的特点,一个特征值对应的特征向量有无限多个,且对应于λ的所有特征向量加上零向量可以构成向量空间,称为矩阵A对应于特征值λ的特征空间。

4. n阶矩阵的特征方程是λ的n阶方程,如果将特征向量限制在R中,那么特征方程未必有解,即不是所有的矩阵都有R域中的特征值;但每一个矩阵一定存在n个复数域中的特征值(k重根按k个特征值计)。

5. 设λ1,...λr是n阶矩阵的r个相异特征值,v1,...vr是对应的r个特征向量,那么向量集{v1,...vr}线性无关。

6. 若存在可逆矩阵P使得两个n阶矩阵A,B满足A=PBP-1,则称A,B相似。

7. 若n阶矩阵A,B相似,那么这两者有相同的特征多项式,从而有相同的特征值(包括相同的代数重数)。

8. 特征向量的应用举例

    假设我们现在要分析xk+1=Axk,x0已知。如果我们能将x0分解为A的特征向量的线性组合,比如x0=c1v1+c2v2,v1,v2为A的特征向量,

    那么上述递归方程就能有一个简单的解法解出xk

    x1=Ax0

       =A(c1v1+c2v2)

       =c1Av1+c2Av2

       =c1λv1+c2λv2

    x2=Ax1

        =A(c1λv1+c2λv2)

        =c1λAv1+c2λAv2

        =c1λ2v1+c2λ2v2

    ...

    xk=c1λkv1+c2λkv2

9. n阶矩阵可对角化的条件是A有n个线性无关的特征向量。

    若A=PDP-1,D为对角阵,那么P的列向量是A的n个线性无关的特征向量,D的主对角线元素是A的对应于P中特征向量的特征值。

    换言之,A可对角化的充分必要条件是有足够多的特征向量形成Rn的基。这样的基称为特征向量基。

10. 某特征值对应的特征空间的维数小于或等于该特征值的代数重数。

11. 矩阵A可对角化的充分必要条件是所有不同特征空间的维数和为n,即每个特征值对应特征空间的维数等于该特征值的代数重数。

12. 若A可对角化,那么所有特征空间的基的向量的集合是Rn的特征向量基。

13. 若V是n维向量空间,W是m维向量空间,T是V到W的线性变换,B和C分别是V和W的基,那么T相对于基B和C的矩阵为:

      M=[ [T(b1)]c  ...  [T(bn)]c ]

      用M来表示V到W的变换:

      [T(x)]c = M[x]B

      若W=V,C=B,上式即简化为:

      [T(x)]B = [T]B[x]B

       此时M=[T]B,称为T相对于B的矩阵,或简称为T的B-矩阵。
14. 设A=PDP-1,D为n阶对角矩阵,若Rn的基由P的列向量组成,那么D是变换x|->Ax的B-矩阵。

      实际上,上述表述中,D不一定要是对角矩阵。

     设y=Ax,且A可表示成PDP-1,那么:

     y=Ax

     => y=PDP-1x

     => P-1y=P-1PDP-1x

     => P-1y=DP-1x

     => (P-1y)=D(P-1x)

     P-1y和P-1x可分别看作y和x在Rn的基P下的坐标。

     对于差分方程xk+1=Axk,上式就成为:

     P-1xk+1=D(P-1xk)

     用w表示x在P下的坐标,就是:

     wK+1=Dwk

     矩阵A对角化后的最大优点是解耦了向量x的各分量。

 15. 

你可能感兴趣的:(值)