01 核技巧
关于支持向量机,我们有这样的共识:
- 支持向量机是一种分类器,之所以叫“机”是因为它会产生一个二值决策结果,是一种决策机;
- 支持向量机的泛化误差较低,即,有良好的学习能力,且学到的模型具有很好的推广性,因此被认为是监督学习中最好的定式算法;
- 支持向量机通过求解一个二次优化问题来最大化分类间隔,在过去,训练SVM常采用非常复杂且低效的二次规划求解方法;1998年,Platt提出SMO算法,通过每次只优化两个alpha值来加快SVM训练速度。
在这篇文章中,我用python3实现了SMO算法,但是呢还有一个问题没有解决:
对于非线性数据集(比如圆环状分布的数据集),该如何分类呢?
我们可以将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分,这就是“核技巧”,核技巧的一个形象过程,如下图所示:
[图片上传失败...(image-a3012c-1538483274152)]
本文将利用核技巧,改进之前写的SMO算法,用于分类非线性数据集,一起来看看吧~
02 核函数
核函数可以自己构造,不过实际应用中我们常使用已有的核函数,不同的核函数适用于不同分布的数据集,典型的几个核函数如下:
[图片上传失败...(image-4e2fc9-1538483274152)]
[图片上传失败...(image-ee976a-1538483274152)]
其中,高斯径向基函数适用于圆环状分布的数据集,本文将利用径向基函数对数据进行核技巧处理。
03 算法实现
整体逻辑与SMOpro一致,差别只在于用K(x,xi)替换了X,Xi内积
3.1辅助函数
def loadDataSet(filename):
#filename是待读取文件的文件名或路径+文件名
dataMat=[];labelMat=[]
fr=open(filename)
for line in fr.readlines():
lineArr=line.strip().split("\t")
dataMat.append([float(lineArr[0]),float(lineArr[1])])
labelMat.append(float(lineArr[2]))
return dataMat,labelMat
def randPickj(i,m):
#i是alphai的i值,整数; m是alpha个数; j不能等于i
j=i
while j==i:
j=int(np.random.uniform(0,m))
return j
def clipAlpha(aj,H,L):
if aj>H:
aj=H
if aj
3.2 核转换函数(关键点)
# X为数据集特征矩阵,A为X[i,:]
# kTup为元组类型,第一个参数表示所用核函数类型,第二个参数表示径向基函数对应的到达率(大小与支持向量对分离超平面的影响程度正相关)
def kernelTrans(X,A,kTup):
m,n=X.shape
K=np.mat(np.zeros((m,1)))
if kTup[0]=="lin": #核函数类型为 线性函数
K=X*A.T
elif kTup[0]=="rbf": #核函数为 径向基函数
for j in range(m): #遍历每个样本
deltaRow=X[j,:]-A #Xj-Xi
K[j]=deltaRow*deltaRow.T #||Xj-Xi||**2
K=np.exp(K/-kTup[1]**2) #径向基函数公式
else:
raise NameError("Kernel not recognized")
return K
#这里构造一个对象,目的是将此对象作为一个数据结构来使用
class optStruct:
def __init__(self,data,label,C,toler,kTup):
#全局变量
self.X=data
self.labelMatrix=label
self.C=C
self.toler=toler
self.m=data.shape[0] #m为样本数
#初始化alpha矩阵、b、Es矩阵
self.alphas=np.mat(np.zeros((self.m,1)))
self.Es=np.mat(np.zeros((self.m,2))) #缓存误差,两列,第一列表示当前Ei是否有效,第二列表示当前的Ei值
self.b=0
#核技巧增加项,初始化K矩阵(K矩阵用于存放K(xi,xj),维度为m*m)
self.K=np.mat(np.zeros((self.m,self.m)))
for i in range(self.m):
self.K[:,i]=kernelTrans(self.X,self.X[i,:],kTup)
def calcEk(oS,k):
gxk=float(np.multiply(oS.alphas,oS.labelMatrix).transpose()*oS.K[:,k]+oS.b)
Ek=gxk-float(oS.labelMatrix[k])
return Ek
#选择相较ai具有最大步长(即Ei-Ej)的aj的函数
def selectJ(oS,i,Ei):
maxK=-1;maxDeltaE=0;Ej=0 #DeltaE表示Ei-Ej,k表示DeltaE最大的样本点索引值,最终会将Ek赋值给Ej
oS.Es[i]=[1,Ei] #使Es矩阵第i位有效
validEsList=np.nonzero(oS.Es[:,0].A)[0] #将Es矩阵中有效的Ei对应的索引值选出来,作为挑选j的池子
if len(validEsList)>1:
for k in validEsList:
if k==i:
continue
Ek=calcEk(oS,k)
deltaE=abs(Ei-Ek)
if deltaE>maxDeltaE:
maxDeltaE=deltaE;maxK=k;Ej=Ek
return maxK,Ej
else: #若validEsList只有一个Ei有效(初次循环),则随机选取一个j
j=randPickj(i,oS.m)
Ej=calcEk(oS,j)
return j,Ej
def updateEk(oS,k):
Ek=calcEk(oS,k)
oS.Es[k]=[1,Ek]
3.3 内循环
def innerL(i,oS):
Ei=calcEk(oS,i)
#判断Ei是否是违反KKT条件超过toler的点,若是再继续挑选j
if (oS.labelMatrix[i]*Ei<-oS.toler and oS.alphas[i]oS.toler and oS.alphas[i]>0):
j,Ej=selectJ(oS,i,Ei)
alphaIold=oS.alphas[i].copy();alphaJold=oS.alphas[j].copy()
#计算L,H
if oS.labelMatrix[i]!=oS.labelMatrix[j]:
L=max(0,oS.alphas[j]-oS.alphas[i]) #这里alpha[i]仍然等于alphaIold
H=min(oS.C,oS.C+oS.alphas[j]-oS.alphas[i])
else:
L=max(0,oS.alphas[j]+oS.alphas[i]-oS.C)
H=min(oS.C,oS.alphas[j]+oS.alphas[i])
if L==H:
print ("L==H")
return 0 #第一个跳出条件(跳出本次内循环,遍历下一个alpha进行更新)
#计算eta
eta=oS.K[i,i]+oS.K[j,j]-2.0*oS.K[i,j]
if eta==0:
print ("eta=0")
return 0 #第二个跳出条件(因为eta=0不好处理,且出现情况较少,因此这里咱不处理,直接跳出)
#根据统计学习方法中的结果公式得到alphaj的解析解,并更新Ej值
oS.alphas[j]=oS.alphas[j]+oS.labelMatrix[j]*(Ei-Ej)/eta
oS.alphas[j]=clipAlpha(oS.alphas[j],H,L)
updateEk(oS,j) #更新Ej值
#检验alphaj与alphaJold是否有足够大的改变,若改变不够大,说明与alpha旧值没有什么差异,跳出本次内循环
if abs(oS.alphas[j]-alphaJold)<0.00001:
print ("j not moving enough")
return 0 #第三个跳出条件
#约束条件让我们可以根据alphaJ求出alphaI
oS.alphas[i]=oS.alphas[i]+oS.labelMatrix[i]*oS.labelMatrix[j]*(alphaJold-oS.alphas[j])
updateEk(oS,i) #更新Ei值
#更新b值,根据alpha是否在0~C决定更新的b值
b1=-Ei-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i]\
-oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]+oS.b
b2=-Ej-oS.labelMatrix[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j]\
-oS.labelMatrix[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]+oS.b
#若ai或aj在(0,C)之间,则取b=bi或b=bj,若ai aj都不在(0,C)之间,取均值
if oS.alphas[i]>0 and oS.alphas[i]0 and oS.alphas[j]
3.4 外循环
def SMOpro(data,label,C,toler,maxIter,kTup):
oS=optStruct(np.mat(data),np.mat(label).transpose(),C,toler,kTup)
iter=0;entireSet=True;alphaPairsChanged=0
#当迭代次数达到上限(这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对),或全集再无可修改的alpha对时,循环停止,计算完成
while (iter0):
alphaPairsChanged=0
if entireSet: #全集遍历
for i in range(oS.m):
alphaPairsChanged+=innerL(i,oS)
print ("fullset, iter:%d i:%d, pairsChanged: %d" %(iter,i,alphaPairsChanged))
iter+=1 #这里的迭代次数只要完成一次循环遍历就+1,不论该次循环遍历是否修改了alpha对
else: #边界遍历
boundIs=np.nonzero((oS.alphas.A>0)*(oS.alphas.A
04 测试
我们用两个圆环分布的数据集测试这个利用了核技巧的SMO算法,数据集分布如下:
[图片上传失败...(image-c7075e-1538483274152)]
4.1 参数训练函数
def testRBF(C,toler,maxIter,kTup):
#训练参数
data,label=loadDataSet("testSetRBF.txt")
b,alphas=SMOpro(data,label,C,toler,maxIter,kTup)
print (b,"\n",alphas[alphas>0])
#找到支持向量
dataMat=np.mat(data);labelMat=np.mat(label).transpose()
svInd=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置)
svs=dataMat[svInd];labelSV=labelMat[svInd] #支持向量样本点特征和类型
print ("There are %d Support Vectors" %svs.shape[0])
#模型对于训练集的预测误差
m,n=dataMat.shape;errorCount=0
for i in range(m):
kernelEval=kernelTrans(svs,dataMat[i,:],kTup) #只映射支持向量到特征空间
predict=kernelEval.T*np.multiply(labelSV,alphas[svInd])+b #wiX+b
if np.sign(predict)!=np.sign(label[i]): #sign(x)为判别函数,X>0输出1,否则输出-1
errorCount+=1
print ("The training error rate is {0}%".format(float(errorCount)/m))
#模型对于测试集的预测误差
data2,label2=loadDataSet("testSetRBF2.txt")
dataMat2=np.mat(data2);labelMat2=np.mat(label2).transpose()
svInd2=np.nonzero(alphas.A>0)[0] #返回alpha>0的点的索引(即,支持向量点位置)
svs2=dataMat2[svInd2];labelSV2=labelMat2[svInd2] #支持向量样本点特征和类型
print ("There are %d Support Vectors" %svs2.shape[0])
m2,n2=dataMat2.shape;errorCount2=0
for i in range(m2):
kernelEval2=kernelTrans(svs2,dataMat2[i,:],kTup) #只映射支持向量到特征空间
predict2=kernelEval2.T*np.multiply(labelSV2,alphas[svInd2])+b #wiX+b
if np.sign(predict2)!=np.sign(label2[i]): #sign(x)为判别函数,X>0输出1,否则输出-1
errorCount2+=1
print ("The training error rate is {0}%".format(100.0*float(errorCount2)/m2))
return b,alphas,svInd,svInd2
4.2 训练&绘图
b,alphas,svInd,svInd2=testRBF(20,0.001,1000,("rbf",0.4))
plotBestFit(svInd,"testSetRBF.txt")
plotBestFit(svInd2,"testSetRBF2.txt")
得到如下输出:
[图片上传失败...(image-522757-1538483274152)]
直观点,我们来看看反应在图中是怎样的效果,第一张为训练集分类效果,第二张为测试集分类效果 (橙色、绿色点为支持向量):
[图片上传失败...(image-ef4583-1538483274152)]
[图片上传失败...(image-b67524-1538483274152)]
可以看到:
- 径向基函数的到达率(k1)有一个最优值
1.1 k1越大,支持向量对分离超平面影响越大,支持向量点可能越少,容易引起欠拟合,决策边界很差
1.2 k1越小,支持向量对分离超平面影响越小,支持向量点可能越多,容易引起过拟合(极端-所有样本点都是支持向量>>KNN) - 本来想用支持向量点来象征非线性数据集的分离超平面位置,但发现支持向量在图中看起来很杂乱,不过属于正常,因为支持向量是分离超平面两侧的样本点
05 总结
本文就之前写的SMO算法进行了改进,加入了核技巧可选项,可以处理非线性数据集。
这里使用的核函数是径向基函数,适用于圆环状分布的数据集,对于其他分布形状的数据集,可以增加其他核函数来处理,不过道理是一样的:将输入空间的样本特征映射到高维特征空间,使得原本非线性的数据集变得线性可分。
下期主攻AdaBoost集成算法啦,加油吧~
06 参考
- 《统计学习方法》 李航 Chapter7
- 《机器学习实战》 Peter Harrington Chapter6