LDA线性降维

原理介绍

LDA(Linear Discriminant Analysis):核心思想就是投影后类内方差(Qe)最小,类间方差(Qa)最大,它广泛用于模式识别领域(人脸识别),这个LDA要区别与自然语言处理领域的LDA(Linear DIrihlet Allocation)
上一张图可能更好理解:

LDA

二分类
假设我们有数据集
[图片上传失败...(image-c327d3-1542949423246)]={(x_1,y_1),(x_2,y_2)\dots(x_m,y_m)})
其中任意Xi为n维向量,且[图片上传失败...(image-ffb57e-1542949423246)]
我们定义Nj(j=0,1)为第j类样本数,Xj为j类样本集合,[图片上传失败...(image-57b06d-1542949423246)])为j类样本均值向量。图片上传失败...(image-60c2d3-1542949423246)^T\qquad(j=0,1))为j类协方差矩阵。
由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设我们的投影直线是向量w,则对任意一个样本本xi,它在直线w的投影为[图片上传失败...(image-47e754-1542949423246)]对于我们的两个类别的中心点μ0,μ1,在在直线w的投影为[图片上传失败...(image-a4f355-1542949423246)]和[图片上传失败...(image-e94a3-1542949423246)]由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化[图片上传失败...(image-1daf59-1542949423246)]同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差wTΣ0w和wTΣ1w尽可能的小,即最小化[图片上传失败...(image-505a0e-1542949423246)]
综上所述,我们的优化目标为:
[图片上传失败...(image-b5aea4-1542949423246)]=\frac{||wTu_0-wTu_1||}{wT\Sigma_0w+wT\Sigma_1w})
优化一下:
[图片上传失败...(image-8450f1-1542949423246)]=\frac{wTS_bw}{wTS_ww})
利用广义瑞利商的性质可以求得解。们的J(w)最大值为矩阵[图片上传失败...(image-810c6a-1542949423246)]的最大特征值,而对应的w为[图片上传失败...(image-2cd8c-1542949423246)]的最大特征值对应的特征向量! 而[图片上传失败...(image-105c1c-1542949423246)]的特征值和[图片上传失败...(image-b9f7bf-1542949423246)]的特征值相同,[图片上传失败...(image-d4bc10-1542949423246)]的特征向量w′和[图片上传失败...(image-738b5-1542949423246)]的特征向量w满足[图片上传失败...(image-75f4e1-1542949423246)]的关系!

源码中的实现:

案例实现:
LDA for iris

import matplotlib.pyplot as plt

from sklearn import datasets
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

iris = datasets.load_iris()
X = iris.data
y = iris.target
target_names = iris.target_names

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)

colors = ['r', 'g', 'y']
plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(X_r2[y == i, 0], X_r2[y == 1, 1], alpha=.8, c=color, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.title('LDA of IRIS dataset')
plt.show()

效果展示:

2018-11-23 12-57-41屏幕截图.png

相对于上篇PCA on iris的效果好了很多
LDA for hdw_digits

from sklearn import datasets
import numpy as np
import matplotlib.pyplot as plt
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.preprocessing import scale
from sklearn.cluster import KMeans
np.random.seed(7)

digits = datasets.load_digits()
data = digits.data
labels = digits.target
data = scale(data)
n_samples, n_features = data.shape
n_digits = len(np.unique(labels))

print("n_digits: %d, \t n_samples %d, \t n_features %d" % (n_digits, n_samples, n_features))

reduce_data = LinearDiscriminantAnalysis(n_components=2).fit_transform(data, labels)
kmeans = KMeans(n_clusters=n_digits, init='k-means++', n_init=10)
kmeans.fit(reduce_data)

plt.figure()
plt.clf()
colors = ['b', 'c', 'g', 'k', 'm', 'r', 'navy', 'y', 'darkorange', 'turquoise']
target_names = range(10)
centroids = kmeans.cluster_centers_
for (color, i, target_name) in zip(colors, target_names, target_names):
    plt.scatter(reduce_data[labels == i, 0], reduce_data[labels == i, 1], s=2, color=color, lw=2, label=target_name)
plt.legend(loc='best', shadow=False, scatterpoints=1)
plt.scatter(centroids[:, 0], centroids[:, 1], marker='v', s=100, linewidths=3, color=colors, zorder=10)
plt.show()

效果展示:

2018-11-23 13-00-00屏幕截图.png

我们发现和PCA&k-means on hdw_digits相比有几个数字已经分的很开了。

你可能感兴趣的:(LDA线性降维)