sklearn中使用pca.components还原和转换矩阵

简介

在经过sklearn.decomposition.PCA的transform()方法转换后,我们可以轻松得到原始数据转换后(降维)的矩阵,inverse_transform(X)方法可以让我们把转换后的矩阵变回为转换前的矩阵。但是我们无法知晓中间的过程,也就意味着我们无法轻松的移植到其他平台上。好在pca类提供了pca.componets_属性,可以帮助我们使用矩阵运算手写转换。

代码示例

from sklearn.decomposition import PCA
df_X = df.drop(columns=['Name','Time'])
pca = PCA(n_components=3)
df_X_pca = pca.fit_transform(df_X)

在这个例子中呢,我们的df_X的shape是(181,16),也就是有16个维度,我们的PCA选取了前三个维度,包含了90%的变异解释率,所以转换后得到的df_X_pca的shape是(181,3)。
接下来我们打印出pca.componets_并保存

comp = pca.components_
print(comp)

在这里插入图片描述
后面太长就不放了,comp的维度是(3,16)。

一.如果我们要把原矩阵转化为transform后的矩阵,只需要:

df_X_M = df_X - df_X.mean()
np.dot(df_X_M,np.linalg.pinv(comp))

先是减去各列的均值,再使该矩阵和comp的逆矩阵(此处因为不是方阵,所以用pinv方法求伪逆矩阵)相乘。
sklearn中使用pca.components还原和转换矩阵_第1张图片
就可以得到和transform一模一样的转换后的结果。
二.把转换后的矩阵还原,是以上的逆过程:

np.matmul(df_X_pca,comp) + df_X.mean()

这个转换后的结果和原来有一点误差,因为你已经降维了,如果维度数小于原来的维度,是不能100%还原的。

你可能感兴趣的:(机器学习,numpy,python,机器学习,pca降维)