矩阵的“特征值分解”和“奇异值分解”区别

在信号处理中经常碰到观测值的自相关矩阵,从物理意义上说,如果该观测值是由几个(如 K 个)相互统计独立的源信号线性混合而成,则该相关矩阵的 或称 维数就为 K,由这 K 个统计独立信号构成 K 维的线性空间,可由自相关矩阵最大 K 个特征值所对应的特征向量或观测值矩阵最大 K 个奇异值所对应的左奇异向量展成的子空间表示,通常称 信号子空间,它的补空间称 噪声子空间,两类子空间相互正交。理论上,由于噪声的存在,自相关矩阵是正定的,但实际应用时,由于样本数量有限,可能发生奇异,矩阵条件数无穷大,造成数值不稳定,并且 自相关矩阵特征值是观测值矩阵 奇异值平方,数值动态范围大,因而 子空间分析时常采用观测值矩阵 奇异值分解,当然奇异值分解也可对奇异的自相关矩阵进行。在自相关矩阵正定时, 特征值分解奇异值分解特例,且实现时相对简单些,实际中,常采用对角加载法保证自相关矩阵正定,对各特征子空间没有影响。在信号处理领域,两者都用于信号的特征分析,但两者的 主要区别在于:奇异植分解主要用于 数据矩阵,而特征植分解主要用于 方型的相关矩阵

你可能感兴趣的:(matlab,数学-矩阵)