奇异值分解与特征值分解详解

原地址: https://blog.csdn.net/MyArrow/article/details/53780972

1.1 应用领域

  • 最优化问题:最小二乘问题 (求取最小二乘解的方法一般使用SVD)
  • 统计分析:信号与图像处理
  • 求解线性方程组:Ax=0或Ax=b
  • 奇异值分解:可以降维,同时可以降低数据存储需求

1.2 矩阵是什么

  • 矩阵是什么取决于应用场景
  • 矩阵可以是: 
    • 只是一堆数:如果不对这堆数建立一些运算规则
    • 矩阵是一列列向量:如果每一列向量列举了对同一个客观事物的多方面的观察值
    • 矩阵是一个图像:它的每个元素代表对应位置的像素值
    • 矩阵是一个线性变换:它可以将一些向量变换为另一些向量

1.3 矩阵与线性变换

  • 矩阵的本质:矩阵的本质就是线性变换

  • 基-坐标系:一个基定义了一个坐标系

  • 矩阵-线性变换:在线性空间中,当选定一组基(相当于确定坐标系)之后,不仅可以用一个向量来描述空间中的任何一个对象,而且可以用矩阵来描述此空间中的任何一个运行(变换),即任何一个线性变换, 都可以用一个确定的矩阵来加以描述

  • 向量:向量描述对象(在选定基之后)

  • 矩阵:矩阵描述对象的运动(在选定基之后)[R,T]
  • 运动:使某个对象发生要求的运动,就是用描述此运动的矩阵乘以运动对象的向量(运动 * 对象 = 矩阵 * 向量)
  • 特征值-变换:同一个线性变换在不同的坐标系(基)下的矩阵不同,但其本质相同, 所以特征值相同
  • 矩阵可进行哪些线性变换? 
    • 旋转
    • 缩放
    • 投影
  • 矩阵包含这么多功能,当我们看着一个数据表,对它的功能一无所知,很是迷茫,为了达到我们人类的目的,大神们把它进行分解,从而达到我们人类理解、使用的目标。
  • 特征向量:都是正交的,即相互垂直
  • 特征值分解和奇异值分解:都是给一个矩阵(线性变换)找一组特殊的基 
    • 特征值分解:找到了特征向量这一组基,在这组基下该线性变换只有缩放效果
    • 奇异值分解(SVD):则是找到两组基,从一组基到另一组的线性变换的旋转、缩放、投影三种功能独立地展示出来了

2. 特征值分解-方阵

  • 只有方阵才能进行特征值分解

  • 奇异值和特征值的重要意义相似,都是为了提取出矩阵的主要特征。

  • 特征值的本质:

  • 特征值分解:把方阵分解为缩放矩阵+特征向量矩阵,没有旋转或旋转角度为0

  • 特征值-变化的主次:如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。反过头来看看之前特征值分解的式子,分解得到的矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)

  • 高维线性变换:当矩阵是高维的情况下,那么这个矩阵就是高维空间下的一个线性变换,这个线性变化可能没法通过图片来表示,但是可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是之前说的:提取这个矩阵最重要的特征。(PCA)

  • 特征值分解总结:特征值分解可以得到:

    • 特征值:特征值表示的是这个特征到底有多重要
    • 特征向量:而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。
    • 特征值分解的局限:特征值分解也有很多的局限,比如说变换的矩阵必须是方阵

2.1 方阵的分解

  • 设,则A∈Rn×n,可表示为:

     

  • X的列:为A的特征向量

  • ∧为对角矩阵:对角线上的值为A的特征值,按从大到小的顺序排列

2.2 实对称矩阵的分解

  • 设,S∈Rn×n,且是对称矩阵,则S可表示为:

  • U的列:为S的单位正交特征向量,即U是正交矩阵(列/行向量正交性、归一化,且

  • 为对角矩阵:对角线上的值为S的特征值,按从大到小的顺序排列
  • U就是矩阵A所定义的坐标系:U的n个列向量组成A的一个完备的标准正交特征向量系

3. 奇异值分解(SVD) - 非方阵

  • 只有非方阵才能进行奇异值分解

  • SVD分解:把矩阵分解为缩放矩阵+旋转矩阵+特征向量矩阵(旋转、缩放、投影)

  • A的非0奇异值的个数等于它的秩r

3.1 SVD定义

  • 设A∈Rm×n,且rank(A) = r (r> 0),则矩阵A的奇异值分解(SVD)可表示为:

    奇异值分解与特征值分解详解_第1张图片

    U和V为正交矩阵

  • 几何含义:

    • 表示找到了和这样两组基:A矩阵的作用是将一个向量从这组正交基向量的空间旋转到这组正交基向量的空间,并对每个方向进行了一定的缩放(由决定),缩放因子就是各个奇异值。如果的维度比 大,则表示还进行了投影。
    • 奇异值分解:将一个矩阵原本混合在一起的三种作用效果,分解出来了。
  • SVD分解如下图所示: 
    奇异值分解与特征值分解详解_第2张图片

  • (左奇异向量):的列为的正交特征向量

  • (右奇异向量):的列为的正交特征向量

  • 与:是实对称正定矩阵,且其特征值为非负实数 (这里博主认为应该是正数)

  • rank() = rank() = rank(A)

  • 与的特征值相同:为,且

  • :,其它元素的值为0

  •  = 

  • :为矩阵A的全部奇异值

  • 奇异值σ跟特征值类似,在矩阵Σ中也是从大到小排列,而且σ的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前个大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解:

 

 

  • 右边的三个矩阵相乘的结果将会是一个接近于A的矩阵,在这儿,k越接近于n,则相乘的结果越接近于A。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵A,我们如果想要压缩空间来表示原矩阵A,我们存下这里的三个矩阵:U、Σ、V就好了。

3.2 SVD特征

  • 奇异值的比例不变性: 
    即的奇异值是A的奇异值的倍

  • 奇异值的旋转不变性: 
    若是正交矩阵且(即为旋转矩阵),的奇异值与的奇异值相同

  • 奇异值的比例和旋转不变性:在数字图像的旋转、镜像、平移、放大、缩小等几何变换方面有很好的应用

  • 容易得到矩阵的秩为()的一个最佳逼近矩阵

    • 这个特性可以应用于信号的分解和重构, 提取有用信息,消除信号噪声 
    • 权系数大的哪些项对矩阵的贡献大,因此当舍去权系数小的一些项后,仍然能较好地接近矩阵,这一点在数字图像处理方面非常有用。

    • 矩阵的秩逼近定义为: 

       

    • 秩逼近就精确等于,而秩逼近的误差最大

4. 齐次/非齐次线性方程组

  • 矩阵: 
    • 方程组数:
    • 未知数的数量:
  • 齐次线性方程组: 
    • 如果 (行数小于列数,即未知数的数量大于所给方程组数),则齐次线性方程组有非零解。
    • 齐次线性方程组的两个解的和仍是齐次线性方程组的一组解(加法封闭)
    • 齐次线性方程组的解的k倍仍然是齐次线性方程组的解(乘法封闭)
    • 齐次线性方程组的系数矩阵秩,方程组有唯一零解
    • 齐次线性方程组的系数矩阵秩,方程组有无数多解
    • 齐次线性方程组有非零解的充要条件是其系数行列式()为零。等价地,方程组有唯一的零解的充要条件是系数矩阵不为零
  • 非齐次线性方程组: 
    • 非齐次线性方程组 有解的充分必要条件是:系数矩阵的秩等于增广矩阵的秩,即(否则为无解)
    • 有唯一解的充要条件是
    • 有无穷多解的充要条件是
    • 解的结构:非齐次线性方程组的通解=齐次线性方程组的通解+非齐次线性方程组的一个特解 

5. SVD解优化问题

5.1 SVD解非齐次线性方程组()

  • 求解非齐次线性方程组
  •  

    • : 方程个数小于未知变量个数,无唯一解
    • :若A可逆( 或 rank(A) = n),有唯一解
    • :方程个数多于未知变量个数,若,则有解
    • 对于, 有如下几种情况: 
      1) : 方程组无解 
      2):方程组有唯一解(约束较强) 
      3):方程组无穷解(约束不够) 
      4): 不可能,因为增广矩阵的秩大于等于系数矩阵的秩(在矩阵中加入一列,其秩只可能增大,不可能变小)
  • M为正交矩阵,为列向量:则有

    • :即向量的长度
  • 以下讨论前提为:

  • 等价于寻找使最小化 (向量2范数,转化为最优化问题)

    1) 对矩阵A进行SVD分解(对角阵,且):

     


    则优化问题变为: 

     

    2) 令:

     


    则优化问题变为: 

     

    3) 求解向量:

    • 若,即,其方程组形式如下图所示: 
      奇异值分解与特征值分解详解_第3张图片

    • 则有:

4) 求解向量:

 

 

5.1.1 rank(A) = n的求解步骤

奇异值分解与特征值分解详解_第4张图片

5.1.2 rank(A) < n的求解步骤

奇异值分解与特征值分解详解_第5张图片

  • :是用于参数化的随机值(parametrized by the indeterminate values)

5.2 SVD解齐次线性方程组()

  • 相似的情况,我们把问题转化为最小化的非线性优化问题,我们已经知道了是该方程组的一个特解,为了避免这种情况(因为在实际的应用中往往不是我们想要的),我们增加一个约束,比如,这样,问题就变为(带约束的优化问题 s.t. : subject to): 

     
  • 由于D是一个对角矩阵,对角元素按降序排列,因此最优解在时取得,又因为, 所以最优解就是V的最小奇异值对应的列向量,比如,最小奇异值在第6行6列,那么x 为 V的第6个列向量。
  • 求解步骤: 
    奇异值分解与特征值分解详解_第6张图片

特征值分解,奇异值分解(SVD)

特征值分解和奇异值分解在机器学习领域都是属于满地可见的方法。两者有着很紧密的关系,我在接下来会谈到,特征值分解和奇异值分解的目的都是一样,就是提取出一个矩阵最重要的特征。

1. 特征值:

    如果说一个向量v是方阵A的特征向量,将一定可以表示成下面的形式:

image

写成矩阵形式:

    这时候λ就被称为特征向量v对应的特征值,一个矩阵的一组特征向量是一组正交向量

2. 特征分解:

特征值分解是将一个矩阵分解成下面的形式:

image

    其中Q是这个矩阵A的特征向量组成的矩阵,正交矩阵是可逆的。Σ = diag(λ1, λ2, ..., λn)是一个对角阵,每一个对角线上的元素就是一个特征值。

首先,要明确的是,一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。

  当矩阵是高维的情况下,那么这个矩阵就是高维空间下的一个线性变换,这个线性变化可能没法通过图片来表示,但是可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是之前说的:提取这个矩阵最重要的特征。总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。

  不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。

3. 奇异值分解

  特征值分解是一个提取矩阵特征很不错的方法,但是它只适用于方阵。而在现实的世界中,我们看到的大部分矩阵都不是方阵,比如说有M个学生,每个学生有N科成绩,这样形成的一个M * N的矩阵就可能不是方阵,我们怎样才能像描述特征值一样描述这样一般矩阵呢的重要特征呢?奇异值分解就是用来干这个事的,奇异值分解是一个能适用于任意的矩阵的一种分解的方法。

 

奇异值分解是一个能适用于任意的矩阵的一种分解的方法

 

image    假设A是一个M * N的矩阵,那么得到的U是一个M * M的方阵(里面的向量是正交的,U里面的向量称为左奇异向量),Σ是一个M * N的实数对角矩阵(对角线以外的元素都是0,对角线上的元素称为奇异值),VT(V的转置)是一个N * N的矩阵,里面的向量也是正交的,V里面的向量称为右奇异向量),从图片来反映几个相乘的矩阵的大小可得下面的图片

 

奇异值分解与特征值分解详解_第7张图片

那么奇异值和特征值是怎么对应起来的呢?首先,我们将一个矩阵A的转置 AT * A,将会得到 ATA 是一个方阵,我们用这个方阵求特征值可以得到:image    这里得到的v,就是我们上面的右奇异向量。此外我们还可以得到:

    这里的σi 就是就是上面说的奇异值,ui就是上面说的左奇异向量。

常见的做法是将奇异值由大而小排列。如此Σ便能由M唯一确定了。

  奇异值σ跟特征值类似,在矩阵Σ中也是从大到小排列,而且σ的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前r大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解

image

    r是一个远小于m、n的数,这样矩阵的乘法看起来像是下面的样子:

奇异值分解与特征值分解详解_第8张图片

    右边的三个矩阵相乘的结果将会是一个接近于A的矩阵,在这儿,r越接近于n,则相乘的结果越接近于A。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵A,我们如果想要压缩空间来表示原矩阵A,我们存下这里的三个矩阵:U、Σ、V就好了。

 

你可能感兴趣的:(计算机视觉,深度学习,数学建模)