PCA 主成分分析

主成分根据,多维字段分析降维成几个成分

from sklearn.decomposition import PCA
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

rng=np.random.RandomState(5)
data=np.dot(rng.rand(2,2),rng.randn(2,200)).T
df=pd.DataFrame({'X1':data[:,0],'X2':data[:,1]})
plt.scatter(df['X1'],df['X2'],alpha=0.5,marker='.')
pca=PCA(n_components=1)# 降维为几维
pca.fit(df)
#特征值和特征向量
print(pca.explained_variance_)#特征值
print(pca.components_)# 返回具有最差方差的成分特征向量
print(pca.explained_variance_ratio_)# 返回所保留的n个成分各自的方差百分比
print(pca.n_components_) #返回保留的成分个数n
x_pca=pca.transform(df) #主成分
print(x_pca.shape)
x_new=pca.inverse_transform(x_pca)#将降维后的数据转换为原始数据
print(x_new.shape)
plt.scatter(df['X1'],df['X2'],alpha=0.5,marker='.')
plt.scatter(x_new[:,0],x_new[:,1],alpha=0.5,marker='.',color='r')

多维数组降维

# 多维数组的降维
from sklearn.datasets import load_digits
digits=load_digits()
print(digits.keys())
print('数据形状为:% i条',digits.data.shape)
print(digits.data[:2])
pca=PCA(n_components=2)
projected=pca.fit_transform(digits.data)
print('降维前的维度:',digits.data.shape)
print('降维后的维度:',projected.shape)
print(pca.explained_variance_)#特征值
print(pca.components_.shape)# 特征向量 有几个特征值就有几组特征向量,因为特征向量是旋转方向,特征值是缩放比例 2个特征值就代表在两个方向缩放值

几个特征向量对应几个特征空间

pca=PCA(n_components=10)
projected=pca.fit_transform(digits.data)
pca.explained_variance_ratio_
s=pca.explained_variance_
c_s=pd.DataFrame({'b':s,'b_sum':s.cumsum()/s.sum()})#cumsum()是累加值 截止第几行的累加值
c_s['b_sum'].plot(style='--ko',figsize=(10,4))# 使用累计数cumsum占比,帕累托分析2/8原则分析plot固定画法
plt.axhline(0.85,color='r',linestyle='--',alpha=0.8)#axhline从Y轴某个值开始划线一个与X轴平行的线
plt.text(6,c_s['b_sum'].iloc[6]-0.08,'85%',color='r')#text文本内容说明
c_s['b_sum'].iloc[6]#iloc根据索引获取具体数据 loc 获取的是行标签
image.png

你可能感兴趣的:(PCA 主成分分析)