SVD,PCA ICA,CCA

矩阵奇异值分解(SVD)

  • 奇异值分解(Singular Value Decomposition)是一种重要的矩阵分解方法,可以看作对称方阵在任意矩阵上的推广。
  • 假设A是一个m*n阶实矩阵,则存在一个分解使得: 

SVD,PCA ICA,CCA_第1张图片

 

SVD的不足

上面我们举了例子,SVD是很粗暴的将数据的特征值排一个序,然后选取最大的几个特征值来代表原数据的特征,这在图像处理方面确实没有问题,因为图像存储在电脑中说白了就是一堆灰度值点而已,它们之间是没有联系的,单纯的提取最有特点的部分是没有问题的。 
但是!但是!但是! 
许多的数据集中,每个数据的属性之间是有联系的!如此一来,单纯的提取特征的手段得到的效果必然是不会好的,所以我们得对SVD进行加强!于是我们的PCA闪耀登场!

主成份分析(PCA)

上述说了SVD不能考虑属性间关联的缺陷,所以我们得解决这个问题,如何才能表示属性间的关联呢?回想数理统计的知识,是不是想到了协方差! 
没错!属性间的协方差就能表达属性间的联系! 
如此一来,我们得到数据之后不直接对其进行SVD了,我们要做一些“预处理”,我们先求各个数据的协方差矩阵! 
比如我们有个3维的数据(x,y,z),那么协方差矩阵是: 

SVD,PCA ICA,CCA_第2张图片

然后我们通过这个协方差矩阵求得SVD方法中的矩阵U与V,然后再根据求出的U与V去用SVD的原理提取原数据的特征就行了。这样我们的“提取规则(也就是矩阵U和V)”是考虑了原数据属性间的联系而制定的,弥补了SVD的缺陷。
很显然,其实PVA就是考虑了原数据的属性间的联系的SVD。

PCA,ICA和CCA

1.PCA

m个n维的样本数据X1,X2,...,XmX1,X2,...,Xm, 均值为u 
步骤: 
(1)标准化, Xi−uXi−u 
(2)计算协方差矩阵 E{(X−E(X))(X−E(X))T}E{(X−E(X))(X−E(X))T} 
(3)计算特征值和特征向量(单位化) 
(4)选择特征值最大的前k(1≤≤k≤≤n)项的特征向量 
(5)利用特征向量的组合进行线性变换,得到新的数据

2.ICA 独立成分分析 

3.CCA 典型相关分析

 https://blog.csdn.net/chinabing/article/details/50668750

https://blog.csdn.net/u014475479/article/details/78520737

你可能感兴趣的:(机器学习)