奇异值分解(SVD)入门学习

嘻嘻~今天也假装努力学习了鸭!总结一下前阵子学的线性代数的一小部分内容


首先,奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解。

区分和理解几个概念:

1.奇异值

对于一个实矩阵A(m×n阶),如果可以分解为A=UΣV’,其中U和Σ为分别为m×n与n×m阶正交阵,V为n×n阶对角阵,且Σ=diag(a1,a2,...,ar,0,..., 0)。且有a1=a2=a3=...=ar=0.那么a1,a2,...,ar称为矩阵A的奇异值。


奇异值分解(SVD)入门学习_第1张图片

(ps:正交矩阵:若一个方阵其行与列皆为正交的单位向量,则该矩阵为正交矩阵,且该矩阵的转置和其逆相等。两个向量正交的意思是两个向量的内积为 0)

2.矩阵分解

也就是把大而复杂的矩阵简化分解成较好处理的矩阵 (个人认为可以是一种降维的过程)这就意味着需要进行矩阵的变换,矩阵变换其实也可以理解为一种线性变换(旋转、缩放、投影)

3.特征值与特征分解(EVD)

特征值:

如果一个非零向量v是方阵A的特征向量,将可以表示成下面形式,其中λ是特征向量v对应的特征值

特征值和特征向量的求解举例


奇异值分解(SVD)入门学习_第2张图片
奇异值分解(SVD)入门学习_第3张图片

特征分解:

根据不同的矩阵类型,特征分解在我看啦可以说是对旋转缩放两种效应的一种归并

特征值分解可以将矩阵分解为下列的形式

4.奇异值分解(SVD)

特征值分解是一个提取矩阵特征很不错的方法,但是它目前只适用于方阵。

相比于前面提及的特征分解 奇异值分解可以说是三种效应合起来的一种析构

A=UΣV',其中U和V是两组正交单位向量,都是是对角阵,是表示奇异值,A矩阵的作用是将一个向量从V这组正交基向量的空间旋转U到这组正交基向量空间,并对每个方向进行了一定的缩放,缩放因子就是各个奇异值。如果V维度U比大,则表示还进行了投影。这样可以说奇异值分解将一个矩阵原本混合在一起的三种作用效果,展现出来了。

详细解答:

奇异值分解(SVD)入门学习_第4张图片

奇异值求解举例:


奇异值分解(SVD)入门学习_第5张图片



奇异值分解(SVD)入门学习_第6张图片

啊啊啊啊-终于不知所云地写完了


链接参考:机器学习(十五)SVD(特征值分解和奇异值分解的区别) - 黑洲非人 - CSDN博客

特征值分解与奇异值分解原理与计算_慕课手记

https://wenku.baidu.com/view/92ebb2e2cfc789eb162dc8b6.html

你可能感兴趣的:(奇异值分解(SVD)入门学习)