参考:《模式识别》(第三版)第4.3章-Fisher线性判别分析
机器学习中的数学(4)-线性判别分析(LDA),主成分分析(PCA):http://www.cnblogs.com/LeftNotEasy/archive/2011/01/08/lda-and-pca-machine-learning.html
线性判别分析LDA:http://www.cnblogs.com/zhangchaoyang/articles/2644095.html
LDA线性判别分析:http://blog.csdn.net/carson2005/article/details/8652586
线性分类器-基本概念:http://blog.csdn.net/u012005313/article/details/50930627
##################################################################################3
两类的线性判别问题可以看作是把所有样本都投影到一个方向上,然后在这个一维空间中确定一个分类的阈值。过这个阈值点且与投影方向垂直的超平面就是两类的分类面。
Fisher线性判别的思想就是:选择投影方向,使投影后两类相隔尽可能远,而同时每一类内部的样本又尽可能聚集。
以下部分仅讨论两类分类问题
训练样本集:
类的样本:
类的样本:
每个样本都是一个d维列向量
目标:寻找一个投影w(w也是一个d维列向量),使得投影后的样本变成
定义各类的类内离散度矩阵(within-class scatter matrix)为:
总类内离散度矩阵(pooled within-class scatter matrix)为:
类间离散度矩阵(between-class scatter matrix)定义为:
两类判别,就是希望寻找的投影方向使投影以后两类尽可能分开,而各类内部又尽可能聚集,这一目标可以表示成如下的准则:
这就是Fisher准则函数(Fisher's Criterion)
######################################################################3
其中权向量w就是投影方向,在Fisher线性判别中,最优投影方向是
直观的解释就是,把待决策的样本投影到Fisher判别的方向上,通过与两类均值投影的平方点相比较做出分类决策。
算法流程如下:
1.把来自两类, 的训练样本集X分成与和分别对应的训练样本集和
5.计算的逆矩阵:
8.根据g(x)值判断测试向量属于哪一类
#########################################################################3
python实现
#!/usr/bin/env python
#-*- coding: utf-8 -*-
'''
LDA算法实现
'''
__author__='zj'
import os
import sys
import numpy as np
from numpy import *
import operator
import matplotlib
import matplotlib.pyplot as plt
def createDataSet():
#group=array([[1.0,1.1], [1.0,1.0], [0,0], [0,0.1], [1.1, 1.2], [0.1, 0.2]])
#labels=['A','A','B','B']
#group1=mat([[x for x in range(1,6)], [x for x in range(1,6)]])
#group2=mat([[x for x in range(10,15)], [x for x in range(15, 20)]])
group1=mat(random.random((2,8))*5+20)
group2=mat(random.random((2,8))*5+2)
return group1, group2
#end of createDataSet
def draw(group):
fig=plt.figure()
plt.ylim(0, 30)
plt.xlim(0, 30)
ax=fig.add_subplot(111)
ax.scatter(group[0,:], group[1,:])
plt.show()
#end of draw
#计算样本均值
#参数samples为nxm维矩阵,其中n表示维数,m表示样本个数
def compute_mean(samples):
mean_mat=mean(samples, axis=1)
return mean_mat
#end of compute_mean
#计算样本类内离散度
#参数samples表示样本向量矩阵,大小为nxm,其中n表示维数,m表示样本个数
#参数mean表示均值向量,大小为1xd,d表示维数,大小与样本维数相同,即d=m
def compute_withinclass_scatter(samples, mean):
#获取样本维数,样本个数
dimens,nums=samples.shape[:2]
#将所有样本向量减去均值向量
samples_mean=samples-mean
#初始化类内离散度矩阵
s_in=0
for i in range(nums):
x=samples_mean[:,i]
s_in+=dot(x,x.T)
#endfor
return s_in
#end of compute_mean
if __name__=='__main__':
group1,group2=createDataSet()
print "group1 :\n",group1
print "group2 :\n",group2
draw(hstack((group1, group2)))
mean1=compute_mean(group1)
print "mean1 :\n",mean1
mean2=compute_mean(group2)
print "mean2 :\n",mean2
s_in1=compute_withinclass_scatter(group1, mean1)
print "s_in1 :\n",s_in1
s_in2=compute_withinclass_scatter(group2, mean2)
print "s_in2 :\n",s_in2
#求总类内离散度矩阵
s=s_in1+s_in2
print "s :\n",s
#求s的逆矩阵
s_t=s.I
print "s_t :\n",s_t
#求解权向量
w=dot(s_t, mean1-mean2)
print "w :\n",w
#判断(2,3)是在哪一类
test1=mat([1,1])
g=dot(w.T, test1.T-0.5*(mean1-mean2))
print "g(x) :",g
#判断(4,5)是在哪一类
test2=mat([10,10])
g=dot(w.T, test2.T-0.5*(mean1-mean2))
print "g(x) :",g
#endif
#####################################################################
用到的一些python函数解释:
numpy.hstack:
函数功能:连接多个数组,每个数组大小一致,按行连接
######################################################################
some problems:
1.类内离散度矩阵必须是非奇异的(样本数大于维数时通常是非奇异的,非奇异表示矩阵行列式不为0,为可逆矩阵)
2.LDA是监督算法(supervised algorithm),降维后的维数和类别数c相关,维数最多到c-1类。比如,2类分类问题,则降维后最多1维