PCA实现步骤及其与opencv中PCA实现方式的对比

       PCA(Principal Components Analysis,中文名叫主成分分析,是数据降维很常用的算法。按照书上的说法是:寻找最小均方意义下,最能代表原始数据的投影方法。PCA的一个经典应用就是人脸识别,感兴趣的可以在网上搜eigenface。
      PCA的主要思想是寻找到数据的主轴方向,由主轴构成一个新的坐标系,这里的维数可以比原维数低,然后数据由原坐标系向新的坐标系投影,这个投影的过程就可以是降维的过程。
       原理网上一搜内容很多,这里推荐一篇讲原理讲得不错的文章: http://www.csdn123.com/html/blogs/20130320/180.htm 大家可以参考。下面着重讨论PCA的实现,由于我主要是在做图像处理时用的PCA,所以以对图像进行降维来说明。

1 对训练集图像进行处理
     读取测试集中的所以图像,然后将其保存在一个矩阵中。如果图像个数为m,图像长宽为i、j,则我们创建矩阵A(m, n = i*j)用来保存图像数据。数组的每一行表示一个图像的所有像素信息,每一列表示一个维度,也即不同图像在同一位置的像素信息,降维也即用更少的列来代表图像。
    经过对训练集的图像进行处理后,所有的图像都在表示在了一个矩阵中,我们假设这个矩阵是data。则data的维数为m*n,其中n=i*j,及n为一张图像的所以像素点。

2 求平均值mean
    在data矩阵中每一个维度上的平均值,具体方法为对data矩阵的每一列求平均值mean。如果是人脸识别的话,这一步得到的就是mean face(平均脸)。

3 每列减去均值
   将data矩阵的的每列减去该列的均值,这样每列的数据均值为0。我有用C来表示相减的值,及C=data-mean

4 计算协方差矩阵
   协方差矩阵表示不同随机变量之间的相互关系,图像中也即求任意两个像素之间的关系。如果两个随机变量的协方差为正或为负,表明两个变量之间具有相关性,如果为零表示两个变量不相关。通过计算协方差矩阵,我们就可以获得不同像素之间的关系。针对人脸识别,计算的协方差矩阵大小为n*n,其中n表示图像的像素点个数。
   计算协方差的矩阵具体操作的A = C' * C/n,这里C‘为C矩阵的转置。注意这里有个除n。在后面代码中会提到。

5  计算协方差矩阵A的特征值和特征向量
    由于协方差矩阵是实对称阵,所以可以求得其所有的特征值和特征向量,其共有n个特征值和特征向量。

6 选择主成分(投影矩阵)
    所谓主成分即是具有最大特征值的特征向量,所以我们需要将特征向量按照特征值由大到小排序,然后根据精度要求选择不同数量的特征向量,例如我们选择了前pca_dim个特征向量,通常pca_dim远小于n(在我们的人脸识别实验中,为了达到95%的精度,pca_dim只有72,而n为120*140=17040)。
    这里我们所选择的主成分实际上就是投影矩阵,我们用project_mat表示。project_mat的维度为n*pca_dim.

7 将训练集进行降维
   此步骤将原始的训练集进行降维变换,方法就是对原始矩阵用project_mat进行投影。
   原始的图像数据data是m*n的矩阵,投影后就成了n*pca_dim的矩阵(每一列都是一个特征向量)。
   特别注意这里投影时并不是想网上很多博客中所说的data*project_mat。正确的方法应该是C*project_mat,及(data-mean)*project_mat。

8 将测试集进行降维
   同步骤6相似,读取所有的测试集图像,然后对其也进行降维操作。如果测试集有M幅图像,则降维后的矩阵为M*pca_dim。
   注意对测试集进行降维时也不是直接用测试集的data*project_mat,正确的做法应该是测试集的(data-mean)*project_mat。

    下面是我写代码对PCA的实现,其中有与Opencv中自带的计算PCA方法的对比。
注意为了方便对矩阵的操作,我在代码中使用的开源的Eigen库,Eigen是个很方便的数学出来工具,尤其是对矩阵的处理。
    Eigen库的主页http://eigen.tuxfamily.org/index.php?title=Main_Page 

    使用Eigen也很简单,下载好开源包后,直接在工程的属性页面“附加包含目录”把Eigen的目录添加进去。配置好后在在代码中添加#include”Eigen/Eigen”和using namespace Eigen两行就可以使用了。

#include
#include
#include"Eigen/Eigen"  
#include
using namespace Eigen;  
using namespace std;
using namespace cv;
void BubbleSort(float *pData, int Count);//冒泡排序  
const int num = 5;    // 样本数量
const int dim = 10;    // 样本的维度(一张图片的维度)  
const int pca_dim = 4;// pca dimension of each sample  

int main()
{
	// 原始数据:每一行代表一个样本(这里为了测试时随机生成的)
	MatrixXf data =MatrixXf::Random(num, dim);
	// 求每一维度上的平均值,即每一列的平均值,最后求出来是一个行向量
	MatrixXf mean =data.colwise().mean();     
	cout<<"------------------Orignal data-------------------------\n"< sol_A;
        sol_A.compute(A);
	//求协方差矩阵的特征值和特征向量
	MatrixXf eigenvals_A =sol_A.eigenvalues().real();
	MatrixXf eigenvecs_A =sol_A.eigenvectors().real();
	//排序
	float a[dim]={0.0};
	for(int i=0; i=i; j--) //每次从最后往前交换,得到最大值  
		{     
			if(pData[j]>pData[j-1])    
			{     
				iTemp      = pData[j-1];    
				pData[j-1] = pData[j];    
				pData[j]   = iTemp;    
			}   
		}  
	}  
} 

      最后通过对比,发现用Eigen自己实现的PCA与Opencv实现的PCA结果的数值是一样的,但是有些向量的符号相反。

     编译好的代码下载:http://download.csdn.net/detail/computerme/7497923


PCA实现步骤及其与opencv中PCA实现方式的对比_第1张图片



PS:可能有的读者发现了有些博客中讲PCA降维时,在第一步生成原始的data矩阵维度为dim*m(dim为一个图像的维度,m为训练集图片的张数)。

        如果是这种情况的话,则上面的A 应该等于 C*C' (C'是C矩阵的转置),最后求降维后的矩阵时公式也应该变为project_mat的转置乘以(data-mean)。

        总之,不管data矩阵的维度是dim*m还是m*dim,我们都要确保第四步求得的协方差A的维度是dim*dim。因为协方差矩阵表示的就是data中各维度的关系。


**************************************************************************************************************************

关注IT行业发展,关注互联网时代创业趋势,就来我们的公众号吧~~
微信公众号ID: chuangye_beginner   欢迎在公众号里与我互动
博主微博:IT修道者 
*************************************************************************************************************************

你可能感兴趣的:(机器学习,opencv)