如何理解矩阵的特征向量和特征值?

https://www.toutiao.com/a6670119089135944205/

 

矩阵是一个非常抽象的数学概念,很多同学都对其望而生畏。但是,如果能够具体的理解了内部含义,就如同打开了一扇新的大门。

本文主要讲的是特征向量(Eigenvector)和特征值(Eigenvalue)。

01 特征向量(Eigenvector)是什么?

如何理解矩阵的特征向量和特征值?_第1张图片

基向量

我们一般研究数学,都是在直角坐标系中,这就造就了两个基向量:v(0,1)和 u(1,0)。

为了说明特征向量,我们先看一下矩阵A和向量B(1,-1):

如何理解矩阵的特征向量和特征值?

矩阵A

如果将A和B相乘,结果如下:

如何理解矩阵的特征向量和特征值?_第2张图片

AB和2B

AB

矩阵实际上可以被看作为一个变换,AB实际上表达的意思是 向量B 通过矩阵A完成了一次变换,有可能只是拉伸,有可能是旋转,有可能两者都有。

2B

上图中,2B的理解就简单很多,是将向量B拉长2倍。

那么,特征向量的定义如下:

任意给定一个矩阵A,并不是对所有的向量B都能被A拉长(缩短)。凡是能被A拉长(缩短)的向量称为A的特征向量(Eigenvector);拉长(缩短)量就为这个特征向量对应的特征值(Eigenvalue)。

上例中,B就是矩阵A的特征向量,2是特征值。

如何理解矩阵的特征向量和特征值?_第3张图片

特征值的求法

02 怎么求矩阵的平方和多次方

如何理解矩阵的特征向量和特征值?

矩阵A

还是矩阵A,如果让你求矩阵A的平方,你可能会觉得挺容易的。

如何理解矩阵的特征向量和特征值?_第4张图片

 

但是,如果让你求A的100次方呢?

还有那么容易吗?

按照上面的方法,一点规律没有,只能硬着头皮算。

补充一个概念:对角矩阵

如何理解矩阵的特征向量和特征值?_第5张图片

对角矩阵

对角矩阵,顾名思义,只有对角线上有值,其他位置都是0。为什么对角矩阵特殊,如上图,C的平方就是对角线上数的平方,多次方也一样。

那么,怎么才能将矩阵A转变成矩阵C呢?

这就用到特征值和特征向量了。

如何理解矩阵的特征向量和特征值?_第6张图片

A的特征值

A有两个特征值,对应两个特征向量:(1,0)和(1,-1)。

如果我们将两个特征向量看作是一个新的坐标系的基向量,并组合成矩阵D:

如何理解矩阵的特征向量和特征值?_第7张图片

 

我们来计算一下

如何理解矩阵的特征向量和特征值?_第8张图片

 

如上图,成功的通过特征向量将A转变成了对角矩阵C。

如何理解矩阵的特征向量和特征值?_第9张图片

A和B相似

03 求A的多次方

这下求A的多次方就方便多了:

如何理解矩阵的特征向量和特征值?_第10张图片

 

由于C是一个对角矩阵,C的n阶矩阵就比较好运算。

有的同学会问,这些计算到底有什么用。下面举个例子。

比方说图片,图片其实是一个一个像素排列在一个矩阵中。

如何理解矩阵的特征向量和特征值?_第11张图片

 

上图所有的像素点堆叠在图片大小的矩阵A中(不要光看美女)。当我们对成像要求并不高,并且需要保留基本的成像特征值的时候,就可以将特征值从大到小的排列,并保存在矩阵C中。C中斜对角线上的值就是 上述图像 成像的特征值。

打个比方,上图可能有100个从大到小的成像特征值,但是我们只取较大的50个,并且对图片进行处理,最后我们可以得到以下图片。

如何理解矩阵的特征向量和特征值?_第12张图片

 

虽然不大清晰,但是主要特征并没有丢失。

你可能感兴趣的:(人工智能)