数据降维(PCA、KPCA、PPCA)及C++实现

1、何为数据降维

1.1维数灾难:往往满足采样条件所需的样本数目巨大、样本稀疏、距离计算困难。

1.2降维:利用数学变换将原始高维属性空间转变为低维“子空间”,即在高维采样数据中提取能够表达原始数据的特征。

1.3 降维优点:数据集更易懂、使用和显示;降低算法计算开销;去除噪声。

2、一些降维算法

Principal Component Analysis (PCA)

Linear Discriminant Analysis(LDA)

Locally linear embedding(LLE)

Laplacian Eigenmaps

数据降维(PCA、KPCA、PPCA)及C++实现_第1张图片

本文主要针对以下三种算法:

2.1 PCA:PCA算法是一种线性投影技术,利用降维后使数据的方差最大原则保留尽可能多的信息;

2.2 KPCA:PCA仅考虑了数据的二阶统计信息,而没有利用高阶统计信息,忽略了数据的非线性相关性,而KPCA,通过非线性变换将数据映射到了高维,在高维空间中进行特征提取,获得了更好的特征提取性能;

2.3 PPCA:PCA没有将数据的概率分布考虑,PPCA对PCA做了概率上的解释,延伸了PCA算法。

总之:PPCA和KPCA都是针对PCA算法的缺陷,做出了不同方向上的改进。

3 PCA、KPCA、PPCA算法步骤

3.1 PCA数据在低维线性空间上的正交投影,这个线性空间被称为主子空间,使得投影数据的方差被最大化。

》将原始数据按列组成n行m列矩阵X;

》将X的每一行(代表一个属性字段)进行零均值化,即减去这一行的均值;

》求出协方差矩阵C;

》求出协方差矩阵的特征值及对应的特征向量;

》将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵P;

》Y=PX即为降维到k维后的数据。

3.2 KPCA:通过使用一个非线性核替换线性的方式来对高维数据向低维投影。

》将原始数据按列组成m行n列矩阵X;

》计算核矩阵,先选定高斯径向核函数中的参数,计算核矩阵K,修正核矩阵得到KL;

》求出协方差矩阵C,运用雅可比迭代方法计算KL特征值与特征向量;

》将特征向量按对应特征值大小从上到下按行排列成矩阵,取前k行组成矩阵;

》通过施密特正交化方法单位正交化特征向量得到P;

》Y=PX即为降维到k维后的数据。

3.3 PPCA:PPCA是一种考虑每个变量概率分布的方法,在确定主元和误差的概率函数后,通过期望最大(EM)算法建立模型。

》将原始数据按列组成n行m列矩阵;

》对原始训练样本数据进行标准中心化处理得到X;

》在隐含变量x 的条件下得到观测数据的概率分布;

》通过EM 算法获得概率PCA 的模型参数W(因子矩阵)和方差;

》舍去不满足因子矩阵与方差特定关系的归一化数据;

》剩余满足条件数据即为降维到k维后的数据。

4、C++实现PCA、KPCA

(环境:Visual Studio 2013)

pca.h

#include    
#include    
#include    
#include    
#include    
#include 
using namespace std;

typedef struct sourcedata      //声明了一个原始数据类型 
{
	int m;
	int n;
	double **data;
}SourceData;
class PCA
{
public:
	PCA(int m, int n);                                //m为行数,n为列数	 
	SourceData getdata(const  char *file);           //获取外部数据 
	void standarddata(double **a);                  //数据标准化 
	double  product(double *a, double *b);         //向量乘积 
	void  swap(double &x, double &y);             //数据交换 
	double  **matrixproduct(double **a);            //求解协方差矩阵 
	void  selectionsort(double *A, double **v);     //特征值排序 
	void  zhengjiao(double **v);                   //向量正交化 
	int jcb(double **a, double **v, double eps, int jt);		 //求解特征值和特征向量 
	int selectcharactor(double *A, double getratio, double *B); //提取主分量 
	double  **getProject(int t, double **x, double **v);        //计算降维后特征点  
	void   saveProject(const char *projectfile, double **project, int t); //保存
	~PCA(){}
private:
	int  rows;
	int columns;
};

kpca.h

#include
#include
#include
#include
#include
#include
#include
#include
using namespace std;

class KPCA
{
public:
	KPCA(int m, int n);
	SourceData getdata(const char *file); //获取外部数据
	int randdef(int n1, int n2); //生成n1到n2随机整数
	double getvar(double **testdata, int m, int n, int l, double left, double right);//通过对随机样本的最大特征提取效率获取高斯径向基函数的参数
	double product(double *a, double *b, int size);  //向量乘积
	double kernel(double var, double *x, double *y, int sign);  //核函数定义
	double **getkernelmatrix(double **a, double var, int sign); //获取核矩阵
	double **modifykernelmatrix(double **K);  //修正核矩阵
	int jcb(double **a, double **v, double eps, int jt);	//求解矩阵的特征值和特征向量	
	void zhengjiao(double **v); //正交化特征向量
	void swap(double &x, double &y); //交换元素
	void selectionsort(double *A, double **v);  //特征值和特征向量选择排序
	void saveeigenvectors(double A[], double **v, const char *vectorfile);//保存特征值和特征向量
	int selectcharactor(double *A, double getratio, double *B);  //提取特征
	double  **getProject(int t, double **x, double **v);  //获得投影
	void saveProject(const char *projectfile, double **project, int t);  //保存投影
	~KPCA(){}
private:
	int  rows;
	int columns;
};

pca.cpp与kpca.cpp由于篇幅问题未分享,有意者邮箱:[email protected]或https://download.csdn.net/download/u010442908/10628230

main.cpp

#include"pca.h"    
#include"kpca.h"
void main()
{
	//pca

	cout << "-----------------------pca------------------------" << endl;
	int i, j, t;                                                        //i,j循环用;t降维后维数
	int m, n;                                                           //m行n列
	double **x, **c, **v, **Project;                                      
	double *A, *B;                                                         //A特征值B贡献率
	sourcedata pp;
	double eps = 0.000001;                                              //雅克比方法的终止精度            
	double getratio = 0.9;                                              //特征值的提取率      
	const  char *File = "test1.txt";                                    //原始数据文件名称    
	const char *projectfile = "pcaproject.txt";                         //处理后的数据文件名称    
	PCA pca(2, 3);                                                      //声明一个临时对象调用成员函数来获取数据    
	pp = pca.getdata(File);                                             //获取外部数据    
	x = pp.data;
	m = pp.m;
	n = pp.n;

	cout << "数据的行数为" << m << ",数据的列数为 " << n << endl;
	A = new double[n];                                           //存放特征值
	B = new double[n];                                          //存放特值贡献率
	v = new double*[n];                                          //存放特征向量
	for (i = 0; i < n; i++)
		v[i] = new double[n];


	PCA  testpca(m, n);                                        //声明一个对象并初始化           
	testpca.standarddata(x);                                   //对数据进行标准化处理   X是原始数据        
	c = testpca.matrixproduct(x);                              //    求协方差矩阵  
	i = testpca.jcb(c, v, eps, 100);                           //    求特征值和特征向量    
	for (int k = 0; k < n; k++)
		A[k] = c[k][k];                                        //存特征值    
	testpca.zhengjiao(v);                                     //正交化特征向量    
	testpca.selectionsort(A, v);                              //特征值和特征向量排序        
	t = testpca.selectcharactor(A, getratio, B);              //提取特征值 t为降维后维数   


	cout << "PCA降维后的维数:" << t << endl;
	cout << "排序后提取的特征值及对应的特征向量" << endl;
	for (i = 0; i <= t - 1; i++)                              //输出特征值
		printf("%13.7e  ", A[i]);
	printf("\n\n");

	for (i = 0; i < n; i++)                                    //输出特征向量
	{
		for (j = 0; j < t; j++)
			printf("%13.7e  ", v[i][j]);
		printf("\n");

	}
	cout << "特征值的累计贡献率为" << endl;
	for (i = 0; i < n; i++)
		cout << B[i] << "  ";
	cout << endl;
	cout << "当提取效率是" << getratio << "时提取了前" << t << "个分量" << endl;     //getratio特征提取率
	if (t >= 1 && t <= n)
		Project = testpca.getProject(t, x, v);                //求降维后特征点       
	else
		cout << "error" << endl;
	testpca.saveProject(projectfile, Project, t);             //保存特征点到TXT文件  



	//kpca

	cout << endl<< "----------------------kpca------------------------" << endl;
	int a;                                                      //循环用
	int l = 50;                                                 //随机提取样本的数目	
	const char *File2 = "test2.txt";
	const char*eigenvectors = "eigen.txt";                     //特征值和特征向量存储文件名称
	const char *projectfile2 = "kpcaproject.txt";              //降维后特征点文件存储名称
	SourceData pdata;
	double  gaussparameter;                                    //高斯核参数
	double **K, **KL;                                           //高斯核矩阵k及修正核矩阵	
	KPCA kpca(3, 2);
	pdata = kpca.getdata(File2);                               //获取外部数据
	x = pdata.data;
	m = pdata.m;
	n = pdata.n;
	A = new double[m];
	B = new double[m];

	KPCA  testkpca(m, n);                                        //对象	
	gaussparameter = testkpca.getvar(x, m, n, l, 100, 800);       //求高斯核参数    通过对随机样本的最大特征提取效率获取高斯径向基函数的参数
	cout << "高斯核参数: " << gaussparameter << endl;
	K = testkpca.getkernelmatrix(x, gaussparameter, 1);          //求核矩阵
	KL = testkpca.modifykernelmatrix(K);                        //求修正核矩阵	
	c = new double*[m];                                         //定义c、v二维数组
	for (a = 0; a= 1 && t <= m)
		Project = testkpca.getProject(t, KL, v);                //求降维后特征点 
	else
		cout << "error" << endl;
	testkpca.saveProject(projectfile2, Project, t);               //存入TXT文件
}

结果分析

工程目录

数据降维(PCA、KPCA、PPCA)及C++实现_第2张图片

4.1、pca原始线性数据集,即工程目录下test1.txt文件,共6维数据,每个维度150个特征点,部分数据截图如下:

数据降维(PCA、KPCA、PPCA)及C++实现_第3张图片

经过pca算法降维后,生成工程目录下pcaproject.txt文件,数据变为4维:

数据降维(PCA、KPCA、PPCA)及C++实现_第4张图片

4.2:kpca原始非线性数据集,即工程目录下test2.txt文件,共6维数据,每个维度150个特征点,部分数据截图如下:

数据降维(PCA、KPCA、PPCA)及C++实现_第5张图片

经过kpca算法降维后,生成工程目录下kpcaproject.txt文件,数据变为2维:

数据降维(PCA、KPCA、PPCA)及C++实现_第6张图片

数据降维(PCA、KPCA、PPCA)及C++实现_第7张图片

 

你可能感兴趣的:(数据降维(PCA、KPCA、PPCA)及C++实现)