本文内容是基于作者当前对奇异值分解svd的了解,不够全面,有不妥的地方还望各位读者指出。作者也会在进一步了解svd的过程中,不断更新本文。
为更好的理解这篇文章,现在这里列出几个文中出现的概念,想要更深的理解这些概念,可以看我的另一篇文章:关于特征值的理解。
直接进入正题,矩阵当中有一个非常著名的理论,即:
一个 n×n 的对称矩阵 A 可以分解为: A=VDVT 。其中, V 是一个 n×n 正交矩阵,并且列向量是矩阵 A 的特征向量; D 是一个 n×n 对角矩阵,并且对角线上的值为对应特征向量的特征值。
上面的理论是针对一个 n×n 的对称矩阵,那么对于任意的一个 m×n 的矩阵 A ,有没有类似的表达方法呢。答案是肯定的,svd正是用来解决这个问题的。
对任意一个 m×n 的矩阵 A ,可以将其分解为: A=USVT 。其中 U 是一个 m×m 的正交矩阵; S 是一个 m×n 的矩阵,其主对角元素 ≥0 ,非主对角元素均为0; V 是一个 n×n 的正交矩阵。
当 m>n 时 | 当 m<n 时 |
---|---|
S=⎡⎣⎢⎢⎢⎢⎢⎢⎢σ100⋮00σ20⋮000σ3⋮0⎤⎦⎥⎥⎥⎥⎥⎥⎥
|
S=⎡⎣⎢σ1000σ2000σ3⋯⋯⋯000⎤⎦⎥
|
关于svd的证明过程,似乎更多是数值上的工作,本文想给出更多intuitive上的理解。想要了解证明的可以参考这篇论文:Kalman D. A singularly valuable decomposition: the SVD of a matrix。
这样,对任意一个矩阵,我都可以分解成三个矩阵的内积。让我们看一下它有什么神奇的性质。
Wn×n=⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢σ2100⋮00⋱0⋮000σ2k⋮0⋯⋯⋯⋱000000⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥
|
Dm×m=⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢⎢σ2100⋮00⋱0⋮000σ2k⋮0⋯⋯⋯⋱000000⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥⎥
|
---|
可以看出,矩阵 S 主对角线上的值,实际上是对称矩阵 AAT 或 ATA 特征值的平方根。
所以,实际上svd是一个矩阵分解方法,对于任意一个 m×n 的矩阵 A ,svd都可以将其分解成为 A=USVT 。其中矩阵U的列向量是对称矩阵 AAT 的特征向量,称作左奇异矩阵;矩阵 V 的的列向量是对称矩阵 ATA 的特征向量; S 是一个 m×n 的矩阵,主对角线上的值是对称矩阵 AAT 或 ATA 特征值的平方根,称作奇异值,且非对角线上的值为0.
不知道写到这里,大家是不是对svd有了一个比较具体的印象。然而,上面只是从数学上解释了svd的构成,我们好奇的是,从很多地方,我们都听到了svd,即使如上面所述,它长的是这个样子,但是我们它到底可以用来做什么事情呢?
下面我们举几个svd的实际应用,加深我们对它的理解。
1)有损的数据压缩
假设我们有一个 m×n 的矩阵 A ,它表示一组数据,有 n 个样本,每个样本的维度为 m ,它包含了一定的信息。而通过svd,我们可以对矩阵 A 进行分解: A=USVT 。将矩阵展开,可以表示为 A=σ1u1vT1+σ2u2vT2+…+σkukvTk ,是 k 个部分的组合, k 为矩阵 S 当中,对角线上不为0的个数。可以认为,每一个部分包含了原数据的部分信息,合在一起组成了整个数据。
关于S还有一个特性,它是按照 σ 值的大小,从大到小排列的,即 σ1>σ2>...>σk 。 U 和 V 都是正交矩阵, u1 , um 和 v1 , vn 都是长度为1的单位向量,并且两两之间不相关,即 uiuj=0,i≠j 。所以,可以看作,每一个部分包含信息的多少,全由 σi 的大小决定。
举个例子:
有一个例子解释的非常清晰,感兴趣的话,大家可以看一下这篇博客:奇异值分解和图像压缩
2)主成分分析法(PCA)
在前面一篇博客,PCA详解,中提到,我们一般使用svd来对PCA进行求解。由于在前面的博客中,已经详细介绍过PCA,这里我们假设大家对PCA都非常了解。PCA的核心思想就是,对一个 m×n 的矩阵 A ,即有 n 个样本、每个样本有 m 个维度,我们要找到一个 m×m 的矩阵 U ,对原矩阵 A 进行转换,是的转换后的矩阵 UA ,其协方差矩阵 ∑=UA(UA)T=UAATUT ,是一个对角矩阵。
我们知道 AAT 是一个对称矩阵,根绝前面提到过的理论, AAT 可以分解为: AAT=UDUT ,那么 UAATUT=D ,正好是一个对角矩阵。而根据svd,我们知道 A 可以分解为: A=USVT ,且左奇异矩阵 U 的列向量,正好是对称矩阵 AAT 的特征向量。
因而,如果得到了矩阵A的奇异值分解矩阵,我们就得到了一个 m×m 的矩阵 U ,这个矩阵就是PCA的转换矩阵 U 。
另外,还有用svd做推荐算法的,但是其实质上并不是用svd来求解,只是用到了矩阵分解的思想,这里就不详细介绍了,感兴趣的可以去了解一下。
希望本文能对你理解svd有所帮助,感谢阅读。