矩阵特征值、特征向量、奇异值


1. 特征值与奇异值的主要区别
两者的主要区别在于:奇异值分解主要用于数据矩阵,而特征植分解主要用于方型的相关矩阵。自相关矩阵正定时, 特征值分解是奇异值分解的特例,且实现时相对简单些。
2. 定义
一矩阵A作用与一向量a,结果只相当与该向量乘以一常数λ。即A*a=λa,则a为该矩阵A的特征向量,λ为该矩阵A的特征值。
本征值和本征向量为量子力学术语,对矩阵来讲与特征值和特征向量定义一样。但本征值不仅限于矩阵,对微分算子也有意义。
一微分算子A作用与一函数ψ,结果只相当与该函数乘以一常数λ。即Aψ=λψ,则ψ为该微分算子A的本征函数,λ为该微分算子A的本征值。

奇异值:对于一个实矩阵A(m×n阶),如果可以分解为A=UDV’,其中U和V为分别为m×n与n×m阶正交阵,D为n×n阶对角阵,且D=diag(a1,a2,...,ar,0,..., 0)。且有a1>=a2>=a3>=...>=ar>=0。那么a1,a2,...,ar称为矩阵A的奇异值。U和V成为左右奇异阵列。
   A的奇异值为A’A的特征值的平方根(A’表示A的转置矩阵),通过此可以求出奇异值。

你可能感兴趣的:(Computer,Vision)