scikit-learn中的PCA

scikit-learn中的PCA

  • 使用sklearn中的PCA步骤
    • 初始化pca
    • 进行训练集的拟合
    • 均值归零化
  • 对MNIST手写数据集进行降维并预测
    • 不降维直接预测
    • 降维后预测

使用sklearn中的PCA步骤

初始化pca

官方给出的形参列表
在这里插入图片描述

  • n_components:>=1时表示想要求得的主成分个数,传入小于1的float类型,表示保留下的主成分的特征保留度

初始化保留前两个主成分

from sklearn.decomposition import PCA

pca = PCA(n_components=2)

保留下95%的特征

pca = PCA(0.95)

进行训练集的拟合

使用PCA.fit()函数进行数据的拟合

pca.fit(X_train)

均值归零化

使用PCA.transform()对数据进行均值归零

X_train_reduction = pca.transform(X_train)

至此,我们就完成了最基础的PCA降维过程,接下来,我们运用到MNIST手写数据集中进行预测

对MNIST手写数据集进行降维并预测

不降维直接预测

首先,我们先加载MNIST手写数据集

import numpy as np
from sklearn.datasets import fetch_openml
mnist = fetch_openml("mnist_784")

由于mnist数据集已经为训练和测试集分好类了,我们直接取前60000个当训练集,其余当测试集就可以了

X_train = np.array(X[:60000], dtype = float)
y_train = np.array(y[:60000], dtype = float)
X_test = np.array(X[60000:], dtype = float)
y_test = np.array(y[60000:], dtype = float)

这里,我们使用kNN方法对数据进行预测
我们先用kNN对所有数据集进行训练和预测

from sklearn.neighbors import KNeighborsClassifier

knn_clf = KNeighborsClassifier()
%time knn_clf.fit(X_train, y_train)
%time knn_clf.score(X_test, y_test)

运行结果:
scikit-learn中的PCA_第1张图片
这里最近kNN算法应该是有改进过的,速度优化了很多

接下来,我们通过降维,再通过kNN进行预测

降维后预测

这里,我们选取90%的特征精度,进行降维的过程和上述介绍的过程是一样的

from sklearn.decomposition import PCA

pca = PCA(0.9)
pca.fit(X_train) 
X_train_reduction = pca.transform(X_train)

我们可以查看一下降维后的X_train的shape
在这里插入图片描述
减少了700个特征,可以极大优化我们的计算复杂度

我们再对降维后的数据进行训练和预测:

knn_clf = KNeighborsClassifier()
%time knn_clf.fit(X_train_reduction, y_train)
X_test_reduction = pca.transform(X_test)
%time knn_clf.score(X_test_reduction, y_test)

运行结果:
scikit-learn中的PCA_第2张图片
时间确实是有明显的提升的,同时,预测精度还提高了。因为,降维的过程中,我们还可以减少数据的噪声

你可能感兴趣的:(机器学习入门,机器学习,scikit-learn,PCA)