\qquad 在主成分分析(PCA)中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析
(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了解下它的算法原理。
\qquad 在学习LDA之前,有必要将其自然语言处理领域的LDA区别开来,在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),它是一种处理文档的主题模型。我们本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析。
\qquad LDA是一种监督学习
的降维
技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大
”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。
\qquad 可能还是有点抽象,我们先看看最简单的情况。假设我们有两类数据 分别为红色和蓝色,如下图所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近,而红色和蓝色数据中心之间的距离尽可能的大。
\qquad 上图中提供了两种投影方式,哪一种能更好的满足我们的标准呢?从直观上可以看出,右图要比左图的投影效果好,因为右图的黑色数据和蓝色数据各个较为集中,且类别之间的距离明显。左图则在边界处数据混杂。以上就是LDA的主要思想了,当然在实际应用中,我们的数据是多个类别的,我们的原始数据一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面。
\qquad 在我们将上面直观的内容转化为可以度量的问题之前,我们先了解些必要的数学基础知识,这些在后面讲解具体LDA原理时会用到。
\qquad 我们首先来看看瑞利商的定义。瑞利商是指这样的函数 R ( A , x ) R(A,x) R(A,x):
R ( A , x ) = x H A x x H x R(A,x) = \frac{x^HAx}{x^Hx} R(A,x)=xHxxHAx
\qquad 其中x为非零向量,而A为 n × n n×n n×n的Hermitan矩阵。所谓的Hermitan矩阵就是满足共轭转置矩阵和自己相等的矩阵,即 A H = A A^H=A AH=A。如果我们的矩阵A是实矩阵,则满足 A T = A A^T=A AT=A的矩阵即为Hermitan矩阵。
\qquad 瑞利商 R ( A , x ) R(A,x) R(A,x)有一个非常重要的性质,即它的最大值等于矩阵A最大的特征值,而最小值等于矩阵A的最小的特征值,也就是满足
λ m i n ≤ x H A x x H x ≤ λ m a x \lambda_{min} \leq \frac{x^HAx}{x^Hx} \leq \lambda_{max} λmin≤xHxxHAx≤λmax
\qquad 具体的证明这里就不给出了。当向量x是标准正交基时,即满足 x H x = 1 x^Hx=1 xHx=1时,瑞利商退化为: R ( A , x ) = x H A x R(A,x)=x^HAx R(A,x)=xHAx,这个形式在谱聚类和PCA中都有出现。
\qquad 以上就是瑞利商的内容,现在我们再看看广义瑞利商。广义瑞利商是指这样的函数R(A,B,x):
R ( A , x ) = x H A x x H B x R(A,x) = \frac{x^HAx}{x^HBx} R(A,x)=xHBxxHAx
\qquad 其中x为非零向量,而 A , B A,B A,B为 n × n n×n n×n的Hermitan矩阵。B为正定矩阵。它的最大值和最小值是什么呢?其实我们只要通过将其通过标准化就可以转化为瑞利商的格式。我们令 x ′ = B 1 2 x x′=B^{1\over 2}x x′=B21x,则分母转化为:
x H B x = x ′ H ( B − 1 / 2 ) H B B − 1 / 2 x ′ = x ′ H B − 1 / 2 B B − 1 / 2 x ′ = x ′ H x ′ x^HBx = x'^H(B^{-1/2})^HBB^{-1/2}x' = x'^HB^{-1/2}BB^{-1/2}x' = x'^Hx' xHBx=x′H(B−1/2)HBB−1/2x′=x′HB−1/2BB−1/2x′=x′Hx′
\qquad 而分子转化为:
x H A x = x ′ H B − 1 / 2 A B − 1 / 2 x ′ x^HAx = x'^HB^{-1/2}AB^{-1/2}x' xHAx=x′HB−1/2AB−1/2x′
\qquad 此时我们的 R ( A , B , x ) R(A,B,x) R(A,B,x)转化为 R ( A , B , x ′ ) R(A,B,x′) R(A,B,x′):
R ( A , B , x ′ ) = x ′ H B − 1 / 2 A B − 1 / 2 x ′ x ′ H x ′ R(A,B,x') = \frac{x'^HB^{-1/2}AB^{-1/2}x'}{x'^Hx'} R(A,B,x′)=x′Hx′x′HB−1/2AB−1/2x′
\qquad 利用前面的瑞利商的性质,我们可以很快的知道, R ( A , B , x ) R(A,B,x) R(A,B,x)的最大值为矩阵 B − 1 / 2 A B − 1 / 2 B^{−1/2}AB^{−1/2} B−1/2AB−1/2的最大特征值,或者说矩阵 B − 1 A B^{−1}A B−1A的最大特征值,而最小值为矩阵 B − 1 A B^{−1}A B−1A的最小特征值。
\qquad 现在我们回到LDA的原理上,我们在第一节说讲到了LDA希望投影后希望同一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,但是这只是一个感官的度量。现在我们首先从比较简单的二类LDA入手,严谨的分析LDA的原理。
\qquad 假设我们的数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( ( x m , y m ) ) } D=\{(x_1,y_1), (x_2,y_2), ...,((x_m,y_m))\} D={(x1,y1),(x2,y2),...,((xm,ym))},其中任意样本 x i x_i xi为n维向量, y i ∈ 0 , 1 y_i∈{0,1} yi∈0,1。我们定义 N j ( j = 0 , 1 ) N_j(j=0,1) Nj(j=0,1)为第j类样本的个数, X j ( j = 0 , 1 ) X_j(j=0,1) Xj(j=0,1)为第j类样本的集合,而 μ j ( j = 0 , 1 ) μ_j(j=0,1) μj(j=0,1)为第j类样本的均值向量,定义 Σ j ( j = 0 , 1 ) Σ_j(j=0,1) Σj(j=0,1)为第j类样本的协方差矩阵(严格说是缺少分母部分的协方差矩阵)。
\qquad μ j μ_j μj 的表达式为:
μ j = 1 N j ∑ x ∈ X j x      ( j = 0 , 1 ) \mu_j = \frac{1}{N_j}\sum\limits_{x \in X_j}x\;\;(j=0,1) μj=Nj1x∈Xj∑x(j=0,1)
\qquad Σ j Σ_j Σj的表达式为:
Σ j = ∑ x ∈ X j ( x − μ j ) ( x − μ j ) T      ( j = 0 , 1 ) \Sigma_j = \sum\limits_{x \in X_j}(x-\mu_j)(x-\mu_j)^T\;\;(j=0,1) Σj=x∈Xj∑(x−μj)(x−μj)T(j=0,1)
\qquad 由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设我们的投影直线是向量w,则对任意一个样本本 x i x_i xi,它在直线w的投影为 w T x i w^Tx_i wTxi,对于我们的两个类别的中心点 μ 0 , μ 1 μ_0,μ_1 μ0,μ1,在在直线w的投影为 w T μ 0 w^Tμ_0 wTμ0和 w T μ 1 w^Tμ_1 wTμ1。由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化 ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 ||w^Tμ_0−w^Tμ_1||^2_2 ∣∣wTμ0−wTμ1∣∣22,同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差 w T Σ 0 w w^TΣ_0w wTΣ0w和 w T Σ 1 w w^TΣ_1w wTΣ1w尽可能的小,即最小化 w T Σ 0 w + w T Σ 1 w w^TΣ_0w+w^TΣ_1w wTΣ0w+wTΣ1w。综上所述,我们的优化目标为:
a r g    m a x ⎵ w      J ( w ) = ∣ ∣ w T μ 0 − w T μ 1 ∣ ∣ 2 2 w T Σ 0 w + w T Σ 1 w = w T ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T w w T ( Σ 0 + Σ 1 ) w \underbrace{arg\;max}_w\;\;J(w) = \frac{||w^T\mu_0-w^T\mu_1||_2^2}{w^T\Sigma_0w+w^T\Sigma_1w} = \frac{w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw}{w^T(\Sigma_0+\Sigma_1)w} w argmaxJ(w)=wTΣ0w+wTΣ1w∣∣wTμ0−wTμ1∣∣22=wT(Σ0+Σ1)wwT(μ0−μ1)(μ0−μ1)Tw
\qquad 我们一般定义类内散度矩阵 S w S_w Sw为:
S w = Σ 0 + Σ 1 = ∑ x ∈ X 0 ( x − μ 0 ) ( x − μ 0 ) T + ∑ x ∈ X 1 ( x − μ 1 ) ( x − μ 1 ) T S_w = \Sigma_0 + \Sigma_1 = \sum\limits_{x \in X_0}(x-\mu_0)(x-\mu_0)^T + \sum\limits_{x \in X_1}(x-\mu_1)(x-\mu_1)^T Sw=Σ0+Σ1=x∈X0∑(x−μ0)(x−μ0)T+x∈X1∑(x−μ1)(x−μ1)T
\qquad 同时定义类间散度矩阵 S b S_b Sb为:
S b = ( μ 0 − μ 1 ) ( μ 0 − μ 1 ) T S_b = (\mu_0-\mu_1)(\mu_0-\mu_1)^T Sb=(μ0−μ1)(μ0−μ1)T
\qquad 这样我们的优化目标重写为:
a r g    m a x ⎵ w      J ( w ) = w T S b w w T S w w \underbrace{arg\;max}_w\;\;J(w) = \frac{w^TS_bw}{w^TS_ww} w argmaxJ(w)=wTSwwwTSbw
\qquad 仔细一看上式,这不就是我们的广义瑞利商嘛!这就简单了,利用我们第二节讲到的广义瑞利商的性质,我们知道我们的 J ( w ) J(w) J(w)最大值为矩阵 S w − 1 S b S^{−1}_wS_b Sw−1Sb的最大特征值,而对应的w为 S w − 1 S b S^{−1}_wS_b Sw−1Sb的最大特征值对应的特征向量!
\qquad 注意到对于二类的时候, S b w S_bw Sbw的方向恒为 μ 0 − μ 1 μ_0−μ_1 μ0−μ1,不妨令 S b w = λ ( μ 0 − μ 1 ) S_bw=λ(μ_0−μ_1) Sbw=λ(μ0−μ1),将其带入: ( S w − 1 S b ) w = λ w (S^{−1}_wS_b)w=λw (Sw−1Sb)w=λw,可以得到 w = S w − 1 ( μ 0 − μ 1 ) w=S^{−1}_w(μ_0−μ_1) w=Sw−1(μ0−μ1), 也就是说我们只要求出原始二类样本的均值和方差就可以确定最佳的投影方向 w w w了。
\qquad 有了二类LDA的基础,我们再来看看多类别LDA的原理。
\qquad 假设我们的数据集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( ( x m , y m ) ) D={(x_1,y_1),(x_2,y_2),...,((x_m,y_m))} D=(x1,y1),(x2,y2),...,((xm,ym)),其中任意样本 x i x_i xi为n维向量, y i ∈ C 1 , C 2 , . . . , C k y_i∈{C_1,C_2,...,C_k} yi∈C1,C2,...,Ck。我们定义 N j ( j = 1 , 2... k ) N_j(j=1,2...k) Nj(j=1,2...k)为第j类样本的个数, X j ( j = 1 , 2... k ) X_j(j=1,2...k) Xj(j=1,2...k)为第j类样本的集合,而 μ j ( j = 1 , 2... k ) μ_j(j=1,2...k) μj(j=1,2...k)为第j类样本的均值向量,定义 Σ j ( j = 1 , 2... k ) Σ_j(j=1,2...k) Σj(j=1,2...k)为第j类样本的协方差矩阵。在二类LDA里面定义的公式可以很容易的类推到多类LDA。
\qquad 由于我们是多类向低维投影,则此时投影到的低维空间就不是一条直线,而是一个超平面了。假设我们投影到的低维空间的维度为 d d d,对应的基向量为 ( w 1 , w 2 , . . . w d ) (w_1,w_2,...w_d) (w1,w2,...wd),基向量组成的矩阵为 W W W, 它是一个 n × d n×d n×d的矩阵。
\qquad 此时我们的优化目标应该可以变成为:
W T S b W W T S w W \frac{W^TS_bW}{W^TS_wW} WTSwWWTSbW
\qquad 其中 S b = ∑ j = 1 k N j ( μ j − μ ) ( μ j − μ ) T S_b = \sum\limits_{j=1}^{k}N_j(\mu_j-\mu)(\mu_j-\mu)^T Sb=j=1∑kNj(μj−μ)(μj−μ)T, μ μ μ为所有样本均值向量。 S w = ∑ j = 1 k S w j = ∑ j = 1 k ∑ x ∈ X j ( x − μ j ) ( x − μ j ) T S_w = \sum\limits_{j=1}^{k}S_{wj} = \sum\limits_{j=1}^{k}\sum\limits_{x \in X_j}(x-\mu_j)(x-\mu_j)^T Sw=j=1∑kSwj=j=1∑kx∈Xj∑(x−μj)(x−μj)T
\qquad 但是有一个问题,就是 W T S b W W^TS_bW WTSbW和 W T S w W W^TS_wW WTSwW都是矩阵,不是标量,无法作为一个标量函数来优化!也就是说,我们无法直接用二类LDA的优化方法,怎么办呢?一般来说,我们可以用其他的一些替代优化目标来实现。
\qquad 常见的一个LDA多类优化目标函数定义为:
a r g    m a x ⎵ W      J ( W ) = ∏ d i a g W T S b W ∏ d i a g W T S w W \underbrace{arg\;max}_W\;\;J(W) = \frac{\prod\limits_{diag}W^TS_bW}{\prod\limits_{diag}W^TS_wW} W argmaxJ(W)=diag∏WTSwWdiag∏WTSbW
\qquad 其中 ∏ d i a g A \prod\limits_{diag}A diag∏A为A的主对角线元素的乘积,W为 n × d n×d n×d的矩阵。
J ( W ) J(W) J(W)的优化过程可以转化为:
J ( W ) = ∏ i = 1 d w i T S b w i ∏ i = 1 d w i T S w w i = ∏ i = 1 d w i T S b w i w i T S w w i J(W) = \frac{\prod\limits_{i=1}^dw_i^TS_bw_i}{\prod\limits_{i=1}^dw_i^TS_ww_i} = \prod\limits_{i=1}^d\frac{w_i^TS_bw_i}{w_i^TS_ww_i} J(W)=i=1∏dwiTSwwii=1∏dwiTSbwi=i=1∏dwiTSwwiwiTSbwi
\qquad 仔细观察上式最右边,这不就是广义瑞利商嘛!最大值是矩阵 S w − 1 S b S^{−1}_wS_b Sw−1Sb的最大特征值,最大的d个值的乘积就是矩阵 S w − 1 S b S^{−1}_wS_b Sw−1Sb的最大的d个特征值的乘积,此时对应的矩阵W为这最大的d个特征值对应的特征向量张成的矩阵。
\qquad 由于W是一个利用了样本的类别得到的投影矩阵,因此它的降维到的维度d最大值为 k − 1 k-1 k−1。为什么最大维度不是类别数k呢?因为 S b S_b Sb中每个 μ j − μ μ_j−μ μj−μ的秩为1,因此协方差矩阵相加后最大的秩为k(矩阵的秩小于等于各个相加矩阵的秩的和),但是由于如果我们知道前 k − 1 k-1 k−1个 μ j μ_j μj后,最后一个 μ k μ_k μk可以由前k-1个 μ j μ_j μj线性表示,因此 S b S_b Sb的秩最大为 k − 1 k-1 k−1,即特征向量最多有 k − 1 k-1 k−1个。
\qquad 在第三节和第四节我们讲述了LDA的原理,现在我们对LDA降维的流程做一个总结。
输入:数据集 D = ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( ( x m , y m ) ) D={(x_1,y_1),(x_2,y_2),...,((x_m,y_m))} D=(x1,y1),(x2,y2),...,((xm,ym)),其中任意样本 x i x_i xi为n维向量, y i ∈ C 1 , C 2 , . . . , C k y_i∈{C_1,C_2,...,C_k} yi∈C1,C2,...,Ck,降维到的维度d。
输出:降维后的样本集 D ′ D′ D′
(1)计算类内散度矩阵 S w S_w Sw
(2)计算类间散度矩阵 S b S_b Sb
(3)计算矩阵 S w − 1 S b S^{−1}_wS_b Sw−1Sb
(4)计算 S w − 1 S b S^{−1}_wS_b Sw−1Sb的最大的d个特征值和对应的d个特征向量 ( w 1 , w 2 , . . . w d ) (w_1,w_2,...w_d) (w1,w2,...wd),得到投影矩阵W;
(5)对样本集中的每一个样本特征 x i x_i xi,转化为新的样本 z i = W T x i z_i=W^Tx_i zi=WTxi
(6)得到输出样本集 D ′ = ( z 1 , y 1 ) , ( z 2 , y 2 ) , . . . , ( ( z m , y m ) ) D′={(z_1,y_1),(z_2,y_2),...,((z_m,y_m))} D′=(z1,y1),(z2,y2),...,((zm,ym))
\qquad 以上就是使用LDA进行降维的算法流程。实际上LDA除了可以用于降维以外,还可以用于分类。一个常见的LDA分类基本思想是假设各个类别的样本数据符合高斯分布,这样利用LDA进行投影后,可以利用极大似然估计计算各个类别投影数据的均值和方差,进而得到该类别高斯分布的概率密度函数。当一个新的样本到来后,我们可以将它投影,然后将投影后的样本特征分别带入各个类别的高斯分布概率密度函数,计算它属于这个类别的概率,最大的概率对应的类别即为预测类别。
下面是使用iris数据集的部分数据进行降维的简单实现:
from sklearn import datasets
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
class LDA:
def lda(self, X, y, n_components):
"""
LDA实现
:param X: 样本特征
:param y: 样本标签
:param n_components: 降维保留的维度
:return: z: 降维后数据 recon_mat: 重构数据
"""
n, m = np.shape(X)
y_list = np.unique(y)
y_class = np.shape(y_list)[0]
if n_components > y_class - 1:
return
X_avg = np.average(X, axis=0)
# 类间散度
Sb = np.zeros([m, m])
# 类内散度
Sw = np.zeros([m, m])
# 对每一类数据求散度
for elem in y_list:
class_index = np.where(y == elem)
X_elem = X[class_index]
X_elem_rows, _ = np.shape(X_elem)
X_elem_avg = np.average(X_elem, axis=0)
# 类间散度
X_elem_sub = X_elem_avg - X_avg
X_elem_behind_div = np.mat(X_elem_sub).T * np.mat(X_elem_sub)
Sb += X_elem_rows * X_elem_behind_div
# 类内散度
X_item_sub = X_elem - X_elem_avg
X_item_in_div = np.mat(X_item_sub).T * np.mat(X_item_sub)
Sw += X_item_in_div
# 避免矩阵无法求逆导致的错误
try:
Sw_inv = np.linalg.inv(Sw)
except np.linalg.LinAlgError:
raise("matrix cannot be inverse...")
else:
# 求特征值特征向量
S = np.dot(Sw_inv, Sb)
eig_value, eig_vec = np.linalg.eig(np.mat(S))
eig_value_sort = np.argsort(eig_value)
eig_max_index = eig_value_sort[-1:-(n_components + 1):-1]
# 特征向量矩阵W
W = eig_vec[:, eig_max_index]
z = X * W
# 重构数据
recon_mat = z * W.T
return z, recon_mat
if __name__ == '__main__':
# 测试数据使用sklearn中的鸢尾花数据
iris = datasets.load_iris()
data = pd.DataFrame(iris.data, columns=iris.feature_names)
data['class'] = iris.target
# 只取两列属性,两个类别
data = data[data['class'] != 2]
X = np.array(data[data.columns.drop('class')].iloc[:, 0:2])
y = np.array(data['class'])
LDA = LDA()
# 降维
z, recon_mat = LDA.lda(X, y, 1)
print(z)
# 可视化
for i in range(np.shape(y)[0]):
if y[i] == 0:
plt.scatter(X[i, 0], X[i, 1], c='b')
plt.scatter(recon_mat[i, 0], recon_mat[i, 1], c='y')
else:
plt.scatter(X[i, 0], X[i, 1], c='r')
plt.scatter(recon_mat[i, 0], recon_mat[i, 1], c='g')
plt.show()
运行结果:
[[0.50779082]
[0.76910571]
[0.48772607]
[0.50209183]
[0.367101 ]
[0.38716575]
...
[1.44382328]
[1.27440194]
[1.35192973]
[1.66773987]
[1.28306871]
[1.42945752]]
\qquad LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。
首先我们看看相同点:
两者均可以对数据进行降维
。
两者在降维时均使用了矩阵特征分解
的思想。
两者都假设数据符合高斯分布
。
我们接着看看不同点:
LDA是有监督
的降维方法,而PCA是无监督
的降维方法
LDA降维最多降到类别数k-1
的维数,而PCA没有这个限制。
LDA除了可以用于降维
,还可以用于分类
。
LDA选择分类性能最好
的投影方向,而PCA选择样本点投影具有最大方差
的方向。
这点可以从下图形象的看出,在某些数据分布下LDA比PCA降维较优。
当然,某些某些数据分布下PCA比LDA降维较优,如下图所示:
\qquad LDA算法既可以用来降维
,又可以用来分类
,但是目前来说,主要还是用于降维。在我们进行图像识别图像识别相关的数据分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。
LDA算法的主要优点有:
使用类别的先验知识经验
,而像PCA这样的无监督学习则无法使用类别先验知识。依赖均值
而不是方差的时候,比PCA之类的算法较优。LDA算法的主要缺点有:
不适合对非高斯分布样本
进行降维,PCA也有这个问题。最多降到类别数k-1
的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。依赖方差
而不是均值的时候,降维效果不好。过度拟合
数据。引用:
本文理论部分引自下文:
http://www.cnblogs.com/pinard/p/6244265.html