《Python机器学习及实践:从零开始通往Kaggle竞赛之路》第2章 基础篇 学习笔记(十三)2.2.2.1主成分分析总结

目录

2.2.2.1主成分分析

0、引言

1、模型介绍

2、数据描述

3、编程实践

4、性能测评

5、特点分析


2.2.2.1主成分分析

0、引言

特征降维是无监督学习的另一个应用,目的有二:

其一,在实际项目中遭遇特征维度非常高的训练样本,而往往又无法借助自己的领域知识人工构建有效特征;

其二,在数据表现方面,无法用肉眼观测超过三个维度的特征。

因此,特征降维不仅重构了有效的低维度特征向量,同时也为数据展现提供了可能。在特征降维的方法中,主成分分析(Principal Component Analysis)是最为经典和实用的特征降维技术,特别在辅助图形识别方面有突出的表现。

1、模型介绍

首先思考两个小例子,这也是解释低维度、信息冗余和PCA功能的。

有一组2\times 2的数据[(1,2),(2,4)],假设这两个数据都反映到一个类别(分类)或者一个类簇(聚类)。如果学习模型是线性模型,那么这两个数据其实只能帮助权重参数更新一次,因为它们线性相关,所有的特征数值都只是扩张了相同的倍数;如果使用PCA分析的话,这个矩阵的“秩”是1,也就是说,在多样性程度上,这个矩阵只有一个自由度。

# 代码51:线性相关矩阵秩计算样例
# 导入numpy工具包。
import numpy as np

# 初始化一个2*2的线性相关矩阵。
M = np.array([[1, 2], [2, 4]])
# 计算2*2线性相关矩阵的秩。
np.linalg.matrix_rank(M, tol=None)
print(np.linalg.matrix_rank(M, tol=None))

再比如,图2-16所示的几张花洒图片。是试图将三维物体重新映射在二维照片的过程。在这个过程中,可以有无数种映射的角度。但是,可以通过肉眼判断出,最后一张的角度最为合适也最容易分辨。

《Python机器学习及实践:从零开始通往Kaggle竞赛之路》第2章 基础篇 学习笔记(十三)2.2.2.1主成分分析总结_第1张图片

其实,也可以把PCA当做特征选择,只是和普通理解的不同,这种特征选择是首先将原来的特征空间做了映射,使得新的映射后特征空间数据彼此正交。这样一来,通过主成分分析就尽可能保留下具备区分性的低维数据特征。

2、数据描述

使用“手写体数字图像”全集数据。从主成分分析技术方便展示数据的角度出发,显示经过PCA处理之后,这些数字图像映射在二维空间的分布情况,如图2-17所示。

《Python机器学习及实践:从零开始通往Kaggle竞赛之路》第2章 基础篇 学习笔记(十三)2.2.2.1主成分分析总结_第2张图片

# 代码52:显示手写体数字图片经PCA压缩后的二维空间分布
# 导入pandas用于数据读取和处理。
import pandas as pd

# 从互联网读入手写体图片识别任务的训练数据,存储在变量digits_train中。
digits_train = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/optdigits/optdigits.tra', header=None)

# 从互联网读入手写体图片识别任务的测试数据,存储在变量digits_test中。
digits_test = pd.read_csv('https://archive.ics.uci.edu/ml/machine-learning-databases/optdigits/optdigits.tes', header=None)

# 分割训练数据的特征向量和标记。
X_digits = digits_train[np.arange(64)]
y_digits = digits_train[64]

# 从sklearn.decomposition导入PCA。
from sklearn.decomposition import PCA

# 初始化一个可以将高维度特征向量(64维)压缩至二个维度的PCA。
estimator = PCA(n_components=2)
X_pca = estimator.fit_transform(X_digits)

# 显示10类手写体数字图片经PCA压缩后的2维空间分布。
from matplotlib import pyplot as plt


def plot_pca_scatter():
    colors = ['black', 'blue', 'purple', 'yellow', 'white', 'red', 'lime', 'cyan', 'orange', 'gray']
    for i in range(len(colors)):
        px = X_pca[:, 0][y_digits.as_matrix() == i]
        py = X_pca[:, 1][y_digits.as_matrix() == i]
        plt.scatter(px, py, c=colors[i])

    plt.legend(np.arange(0, 10).astype(str))
    plt.xlabel('First Principal Component')
    plt.ylabel('Second Principal Component')
    plt.show()


plot_pca_scatter()

备注:原来的代码有误;故更改为:

for i in range(len(colors)):

本地输出:

《Python机器学习及实践:从零开始通往Kaggle竞赛之路》第2章 基础篇 学习笔记(十三)2.2.2.1主成分分析总结_第3张图片

结论:尽管把原始六十四维度的图像压缩到只有二个维度的特征空间,依然可以发现绝大多数数字之间的区分性。

3、编程实践

在“2.1.1.2支持向量机(分类)总结”节使用了支持向量机分类模型对手写体数字图像进行识别,并取得了很好的预测性能。当时,使用了全部8*8=64维度的图像像素特征对模型进行训练。这一节,分别训练两个以支持向量机(分类)为基础的手写体数字图像识别模型,其中一个模型以原始六十四维度的像素特征,另一个采用经过PCA压缩重建之后的低维特征。

# 代码53:使用原始像素特征和经PCA压缩重建的低维特征,在相同配置的支持向量机(分类)模型上分别进行图像识别
# 对训练数据、测试数据进行特征向量(图片像素)与分类目标的分隔。
X_train = digits_train[np.arange(64)]
y_train = digits_train[64]
X_test = digits_test[np.arange(64)]
y_test = digits_test[64]

# 导入基于线性核的支持向量机分类器。
from sklearn.svm import LinearSVC

# 使用默认配置初始化LinearSVC,对原始六十四维像素特征的训练数据进行建模,并在测试数据上做出预测,存储在y_predict中。
svc = LinearSVC()
svc.fit(X_train, y_train)
y_predict = svc.predict(X_test)

# 使用PCA将原六十四维的图像数据压缩到20个维度。
estimator = PCA(n_components=20)

# 利用训练特征决定(fit)20个正交维度的方向,并转化(transform)原训练特征。
pca_X_train = estimator.fit_transform(X_train)
# 测试特征也按照上述的20个正交维度方向进行转化(transform)。
pca_X_test = estimator.transform(X_test)

# 使用默认配置初始化LinearSVC,对压缩过后的二十维特征的训练数据进行建模,并在测试数据上做出预测,存储在pca_y_predict中。
pca_svc = LinearSVC()
pca_svc.fit(pca_X_train, y_train)
pca_y_predict = pca_svc.predict(pca_X_test)

4、性能测评

对比原始维度特征与经过PCA压缩重建之后的图像特征在相同配置的支持向量机(分类)模型上识别性能的差异。

# 代码54:原始像素特征与PCA压缩重建的低维特征,在相同配置的支持向量机(分类)模型上识别性能的差异
# 从sklearn.metrics导入classification_report用于更加细致的分类性能分析。
from sklearn.metrics import classification_report

# 对使用原始图像高维像素特征训练的支持向量机分类器的性能作出评估。
print(svc.score(X_test, y_test))
print(classification_report(y_test, y_predict, target_names=np.arange(10).astype(str)))

# 对使用PCA压缩重建的低维图像特征训练的支持向量机分类器的性能作出评估。
print(pca_svc.score(pca_X_test, y_test))
print(classification_report(y_test, pca_y_predict, target_names=np.arange(10).astype(str)))

本地输出:

0.9371174179187535
              precision    recall  f1-score   support

           0       1.00      0.98      0.99       178
           1       0.94      0.87      0.91       182
           2       0.98      0.98      0.98       177
           3       0.92      0.93      0.93       183
           4       0.95      0.98      0.96       181
           5       0.90      0.96      0.93       182
           6       0.99      0.98      0.99       181
           7       0.98      0.91      0.94       179
           8       0.88      0.87      0.88       174
           9       0.84      0.92      0.88       180

    accuracy                           0.94      1797
   macro avg       0.94      0.94      0.94      1797
weighted avg       0.94      0.94      0.94      1797

0.9143016138007791
              precision    recall  f1-score   support

           0       0.98      0.96      0.97       178
           1       0.79      0.91      0.84       182
           2       0.97      0.95      0.96       177
           3       0.96      0.89      0.92       183
           4       0.95      0.91      0.93       181
           5       0.89      0.96      0.92       182
           6       0.97      0.97      0.97       181
           7       0.95      0.88      0.92       179
           8       0.89      0.84      0.86       174
           9       0.83      0.88      0.85       180

    accuracy                           0.91      1797
   macro avg       0.92      0.91      0.92      1797
weighted avg       0.92      0.91      0.92      1797

结论:尽管经过PCA特征压缩和重建之后的特征数据会损失2%左右的预测准确性,但是相比于原始数据六十四维的特征而言,使用PCA压缩并降低了68.75%的维度。

5、特点分析

降维/压缩问题则是选取数据具有代表性的特征,在保持数据多样性的基础上,规避掉大量的特征冗余和噪声,不过这个过程也很有可能会损失一些有用的模式信息。经过大量的实践证明,相较于损失的少部分模型性能,维度压缩能够节省大量用于模型训练的实践。这样一来,使得PCA所带来的模型综合效率变得更为划算。

你可能感兴趣的:(Python机器学习及实践)