python sklearn_【Python】使用Python进行主成分分析,,使用sklearn库

【Python】使用Python进行主成分分析,,使用sklearn库

使用sklearn库中的PCA类进行主成分分析。

导入要用到的库,还没有的直接pip安装就好了。from sklearn.decomposition import PCAimport numpy as np # 如果使用numpy的array作为参数的数据结构就需要,其他type没试过是否可以import pandas as pd # 非必要

PCA类的主要输入参数有以下几个:n_components:这个参数可以帮我们指定希望PCA降维后的特征维度数目。最常用的做法是直接指定降维到的维度数目,此时n_components是一个大于等于1的整数。也可以指定主成分的方差和所占的最小比例阈值,让PCA类自己去根据样本特征方差来决定降维到的维度数,此时n_components是一个(0,1]之间的数。还可以将参数设置为"mle", 此时PCA类会用MLE算法根据特征的方差分布情况自己去选择一定数量的主成分特征来降维。也可以用默认值,即不输入n_components,此时n_components=min(样本数,特征数)。whiten:判断是否进行白化。所谓白化,就是对降维后的数据的每个特征进行归一化,让方差都为1。对于PCA降维本身来说,一般不需要白化。如果你PCA降维后有后续的数据处理动作,可以考虑白化。默认值是False,即不进行白化。svd_solver:即指定奇异值分解SVD的方法,由于特征分解是奇异值分解SVD的一个特例,一般的PCA库都是基于SVD实现的。有4个可以选择的值:{‘auto’, ‘full’, ‘arpack’, ‘randomized’}。randomized一般适用于数据量大,数据维度多同时主成分数目比例又较低的PCA降维,它使用了一些加快SVD的随机算法。full则是传统意义上的SVD,使用了scipy库对应的实现。arpack和randomized的适用场景类似,区别是randomized使用的是scikit-learn自己的SVD实现,而arpack直接使用了scipy库的sparse SVD实现。默认是auto,即PCA类会自己去在前面讲到的三种算法里面去权衡,选择一个合适的SVD算法来降维。一般来说,使用默认值就够了。

除了这些输入参数外,有两个PCA类的成员值得关注。

第一个是explained_variance_,它代表降维后的各主成分的方差值。方差值越大,则说明越是重要的主成分。

第二个是explained_variance_ratio_,它代表降维后的各主成分的方差值占总方差值的比例,这个比例越大,则越是重要的主成分。

由于我的数据是放在dataframe的数据结构里的,所以我先把它提取出来转换成numpy的array。X_pca=all.loc[:,emotion]X_pca=np.array(X_pca)a=PCA(n_components=3) # 设置降维后的特征数目a.fit(X_pca) # 传入我们的数据X_new=a.transform(X_pca) # 得到降维后的新数据,仍然是numpy的array形式print(a.explained_variance_ratio_) # 查看降维后的各主成分的方差值占总方差值的比例print(a.explained_variance_) #查看降维后的各主成分的方差值

【Python】使用Python进行主成分分析

你可能感兴趣的:(python,sklearn)