矩阵的奇异值分解(SVD)

矩阵的本质可以是代表着一定维度空间上的线性变换。矩阵分解的本质是将原本m*n复杂的矩阵分解成对应的几个简单矩阵的乘积的形式。使得矩阵分析起来更加简单。

前面写过一篇博客讲的是矩阵的特征值分解,但是我们知道很多矩阵都是不能够进行特征值分解的。这种情况下,如果我们想通过矩阵分解的形式将原本比较复杂的矩阵问题分解成比较简单的矩阵相乘的形式,会对其进行奇异值分解

简单回顾特征值分解

如果一个n*n矩阵A有n个特征值,并且这n个特征值所对应的n个特征向量线性无关,则矩阵A可以使用下式进行特征值分解:

其中,W是n个特征向量所张成的n*n维矩阵,而Sigma是一个对角矩阵,对角线上是矩阵A的n个特征值。

一般情况下,我们会将特征向量标准化(即令他们是单位向量),此时矩阵W的n个特征向量为标准正交基,所以会有,即,也就是说W为酉矩阵。所以特征值分解也可以写成

 

奇异值分解

奇异值分解并没有特征值分解那么苛刻的要求,对于任意一个m*n的矩阵A,可以对其进行如下奇异值分解:

其中,

  • U是一个m*m的矩阵;
  • Sigma是一个m*n的对角矩阵,主对角线上的元素成为奇异值
  • V是一个n*n的矩阵,U与V都是酉矩阵,即组成它们的都是标准正交基

矩阵的奇异值分解(SVD)_第1张图片

 

如何奇异值分解?

  1. 首先,利用A的转置乘以A会得到一个n*n的矩阵,对这个矩阵进行特征值分解,得到的n个特征向量张成的n*n矩阵就是V矩阵,在这里我们将V中的每一个特征向量叫做A的奇异向量

  2. 然后,利用A乘以A的转置得到m*m的矩阵,对这个矩阵进行特征值分解,得到的m个特征向量张成的m*m矩阵就是U矩阵,在这里我们将每一个特征向量叫做奇异向量

  3. 最后,利用下式求得每个奇异值 

上述奇异值分解步骤的依据

在上面,我们说矩阵的特征向量组成的就是SVD的V矩阵,矩阵的特征向量组成的就是SVD的U矩阵,可以通过如下推导证明(以V矩阵为例):

上式中我们还发现矩阵特征值矩阵等于A奇异值矩阵的平方,即,所以其实在第三步中我们求奇异值的方式其实也可以通过求出矩阵的特征值取平方根来求奇异值。

 

SVD求解实例

  • 对于一个矩阵A:

 

  • 首先计算出

矩阵的奇异值分解(SVD)_第2张图片

  • 求出的特征值与特征向量

  • 求出的特征值与特征向量

  • 利用求得奇异值,我们会发现求得的结果与的结果相同;

矩阵的奇异值分解(SVD)_第3张图片

  • 最终得到A的奇异值分解为

 

奇异值分解用于压缩

  • 首先,对于奇异值分解,我们也可以写成如下形式,我们假设奇异值大小顺序排列,即,并且其中每一项的都是秩为1的(m*n)矩阵。

  • 对于如下一幅图像,像素(矩阵尺度)为450*333

矩阵的奇异值分解(SVD)_第4张图片

  • 我们如果只保留最大的奇异值那一项,即另,然后保存这个矩阵,图像显示如下:

矩阵的奇异值分解(SVD)_第5张图片

  • 保留前五项,得到下图:

矩阵的奇异值分解(SVD)_第6张图片

  • 保留前50项,得到下图:

矩阵的奇异值分解(SVD)_第7张图片

我们会发现保留前50项就已经得到很不错的图像了,但是这时需要存储的元素为(1+450+333)*50=39200个,远远小于450*333=149850个。

 

奇异值分解与特征值分解的思考

  • 这两种分解都是在矩阵分析中对复杂矩阵进行简化矩阵的手段;

  • 奇异值全都大于0,因为是平方根,所以肯定大于0

  • 如果将矩阵看做是线性变换的话,特征值分解与奇异值分解都是将矩阵分解成三个线性变换的叠加(两个旋转,一个拉伸

  • 特征值分解与奇异值分解都可以用于压缩矩阵(通过抛弃较小的奇异值/特征值),pca降维时的计算方式就与其很相关。

在opencv中提供了cv::SVD可以直接对矩阵进行奇异值分解

 

 

 

 

你可能感兴趣的:(SLAM)