SVM实战之垃圾邮件过滤


  • 博客分类: 

SVM作为机器学习里面的经典算法在实际中一直被广泛采用,而且其准确性也是非常之高,特别是在引入了核函数之后对识别性能变得非常高。

说明:本文不打算就SVM原理就深入分析,虽然对其原理略懂一二,但是对于SMO算法的理解确实比较浅,所以也不打算班门弄斧,略微介绍,本文重点在于SVM的应用,也就是对垃圾邮件的文本分类

 

关于支持向量机的原理性分析在CSDN上有July大神的博客 :http://blog.csdn.net/v_july_v/article/details/7624837,我就之略微介绍一下原理

伦理片 http://www.dotdy.com/

一,SVM原理象征性简述:

SVM主要应用是分类操作,以二元线性分类为例,主要思想是根据特征向量的超空间创建一条超平面分隔线,当然在加入核函数后,可以把非线性分类映射到高维空间使之成为线性分类,而在求参数的过程中会使用SMO算法选取参数,会有不错的性能

 

二,SVM对垃圾邮件的分类:

这篇文章中的SVM的python实现代码参考自《Machine Learning in Action》一书,其训练数据来自该书的朴素贝叶斯分类一章,朴素贝叶斯也是一种比较简单而实用的分类方法,这里是使用了那一章的邮件数据

 

步骤说明:

1,提取训练邮件数据的特征向量

由于邮件的内容很多,因此找出其主要的分类关键词尤为关键,在找出关键词后就可以用这些关键词对邮件进行特征标记,也就是如果关键词在这篇文章中标记为1不出现则标记为0

 

其中每一个邮件类别中的关键词的选取方法有很多,我决定采用 TF-IDF方法选取关键词,在计算IDF的时候,考虑到我们是对整个类邮件进行分类,因此就没有采用IDF的传统计算方法,而是计算这词语在整个类邮件中的邮件占比,也就是出现该词语的文档数量除以文档总数量

 

关于 TF-IDF的介绍见百度百科 

http://baike.baidu.com/link?url=oYpXqrTb6yQB1KaNUl8LS-01gUsy09s0w9JGpPq4QH8s_AzFI796tvWXnXtoGtpW-WAvLrKYwhsHp1l3i3JGpK

 

在得出所有的词语的TF-IDF数后,我选取数最大的前100个词作为这一类邮件的关键词(每个类不重复的词语数量大概在300多个)

 

得到关键词后我们就可以对每个邮件进行特征向量标记了,每个邮件由100个特征值标记,也就是对每个上文提出的关键词,如果这个邮件存在这个词语就标记为1,如果不存在,那么这个词语就标记为0,

这样就可以得出了每个邮件的特征向量值了

 

2,将步骤1得到的特征值使用SVM训练,本文的SVM代码实现基本是基于李航的《统计学习方法》一书,因为本文不是来叙述原理的,所以也略过不表,在这个例子中使用了rbf作为核函数

 

3,得到训练模型后就可以使用交叉验证方法验证数据的正确性了,具体的说,就是使用50个训练数据中的40个邮件的特征向量训练数据,使用剩下的10个邮件的特征向量作为测试向量

 

还是那句话,代码是硬道理,下面直接上代码

影音先锋电影 http://www.iskdy.com/

 SVM主要代码:


Python代码   收藏代码
  1. # -*- coding: utf-8 -*-  
  2. from numpy import *  
  3. from time import sleep  
  4. import matplotlib.pyplot as plt  
  5.   
  6. def loadDataSet(fileName):  
  7.     dataMat = []; labelMat = []  
  8.     fr = open(fileName)  
  9.     for line in fr.readlines():  
  10.         lineArr = line.strip().split('\t')  
  11.         dataMat.append([float(lineArr[0]), float(lineArr[1])])  
  12.         labelMat.append(float(lineArr[2]))  
  13.     return dataMat,labelMat  
  14.   
  15. def selectJrand(i,m):  
  16.     j=i #we want to select any J not equal to i  
  17.     while (j==i):  
  18.         j = int(random.uniform(0,m))  
  19.     return j  
  20.   
  21. def clipAlpha(aj,H,L):  
  22.     if aj > H:   
  23.         aj = H  
  24.     if L > aj:  
  25.         aj = L  
  26.     return aj  
  27.   
  28. def smoSimple(dataMatIn, classLabels, C, toler, maxIter):  
  29.     dataMatrix = mat(dataMatIn); labelMat = mat(classLabels).transpose()  
  30.     b = 0; m,n = shape(dataMatrix)  
  31.     alphas = mat(zeros((m,1)))  
  32.     iter = 0  
  33.     while (iter < maxIter):  
  34.         alphaPairsChanged = 0  
  35.         for i in range(m):  
  36.             fXi = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b  
  37.             Ei = fXi - float(labelMat[i])#if checks if an example violates KKT conditions  
  38.             if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):  
  39.                 j = selectJrand(i,m)  
  40.                 fXj = float(multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b  
  41.                 Ej = fXj - float(labelMat[j])  
  42.                 alphaIold = alphas[i].copy(); alphaJold = alphas[j].copy();  
  43.                 if (labelMat[i] != labelMat[j]):  
  44.                     L = max(0, alphas[j] - alphas[i])  
  45.                     H = min(C, C + alphas[j] - alphas[i])  
  46.                 else:  
  47.                     L = max(0, alphas[j] + alphas[i] - C)  
  48.                     H = min(C, alphas[j] + alphas[i])  
  49.                 if L==H: print "L==H"continue  
  50.                 eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T - dataMatrix[j,:]*dataMatrix[j,:].T  
  51.                 if eta >= 0print "eta>=0"continue  
  52.                 alphas[j] -= labelMat[j]*(Ei - Ej)/eta  
  53.                 alphas[j] = clipAlpha(alphas[j],H,L)  
  54.                 if (abs(alphas[j] - alphaJold) < 0.00001): print "j not moving enough"continue  
  55.                 alphas[i] += labelMat[j]*labelMat[i]*(alphaJold - alphas[j])#update i by the same amount as j  
  56.                                                                         #the update is in the oppostie direction  
  57.                 b1 = b - Ei- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T  
  58.                 b2 = b - Ej- labelMat[i]*(alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T  
  59.                 if (0 < alphas[i]) and (C > alphas[i]): b = b1  
  60.                 elif (0 < alphas[j]) and (C > alphas[j]): b = b2  
  61.                 else: b = (b1 + b2)/2.0  
  62.                 alphaPairsChanged += 1  
  63.                 print "iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged)  
  64.         if (alphaPairsChanged == 0): iter += 1  
  65.         else: iter = 0  
  66.         print "iteration number: %d" % iter  
  67.     return b,alphas  
  68.   
  69. def kernelTrans(X, A, kTup): #calc the kernel or transform data to a higher dimensional space  
  70.     m,n = shape(X)  
  71.     K = mat(zeros((m,1)))  
  72.     if kTup[0]=='lin': K = X * A.T   #linear kernel  
  73.     elif kTup[0]=='rbf':  
  74.         for j in range(m):  
  75.             deltaRow = X[j,:] - A  
  76.             K[j] = deltaRow*deltaRow.T  
  77.         K = exp(K/(-1*kTup[1]**2)) #divide in NumPy is element-wise not matrix like Matlab  
  78.     elseraise NameError('Houston We Have a Problem -- \  
  79.     That Kernel is not recognized')  
  80.     return K  
  81.   
  82. class optStruct:  
  83.     def __init__(self,dataMatIn, classLabels, C, toler, kTup):  # Initialize the structure with the parameters   
  84.         self.X = dataMatIn  
  85.         self.labelMat = classLabels  
  86.         self.C = C  
  87.         self.tol = toler  
  88.         self.m = shape(dataMatIn)[0]  
  89.         self.alphas = mat(zeros((self.m,1)))  
  90.         self.b = 0  
  91.         self.eCache = mat(zeros((self.m,2))) #first column is valid flag  
  92.         self.K = mat(zeros((self.m,self.m)))  
  93.         for i in range(self.m):  
  94.             self.K[:,i] = kernelTrans(self.X, self.X[i,:], kTup)  
  95.           
  96. def calcEk(oS, k):  
  97.     fXk = float(multiply(oS.alphas,oS.labelMat).T*oS.K[:,k] + oS.b)  
  98.     Ek = fXk - float(oS.labelMat[k])  
  99.     return Ek  
  100.           
  101. def selectJ(i, oS, Ei):         #this is the second choice -heurstic, and calcs Ej  
  102.     maxK = -1; maxDeltaE = 0; Ej = 0  
  103.     oS.eCache[i] = [1,Ei]  #set valid #choose the alpha that gives the maximum delta E  
  104.     validEcacheList = nonzero(oS.eCache[:,0].A)[0]  
  105.     if (len(validEcacheList)) > 1:  
  106.         for k in validEcacheList:   #loop through valid Ecache values and find the one that maximizes delta E  
  107.             if k == i: continue #don't calc for i, waste of time  
  108.             Ek = calcEk(oS, k)  
  109.             deltaE = abs(Ei - Ek)  
  110.             if (deltaE > maxDeltaE):  
  111.                 maxK = k; maxDeltaE = deltaE; Ej = Ek  
  112.         return maxK, Ej  
  113.     else:   #in this case (first time around) we don't have any valid eCache values  
  114.         j = selectJrand(i, oS.m)  
  115.         Ej = calcEk(oS, j)  
  116.     return j, Ej  
  117.   
  118. def updateEk(oS, k):#after any alpha has changed update the new value in the cache  
  119.     Ek = calcEk(oS, k)  
  120.     oS.eCache[k] = [1,Ek]  
  121.           
  122. def innerL(i, oS):  
  123.     Ei = calcEk(oS, i)  
  124.     if ((oS.labelMat[i]*Ei < -oS.tol) and (oS.alphas[i] < oS.C)) or ((oS.labelMat[i]*Ei > oS.tol) and (oS.alphas[i] > 0)):  
  125.         j,Ej = selectJ(i, oS, Ei) #this has been changed from selectJrand  
  126.         alphaIold = oS.alphas[i].copy(); alphaJold = oS.alphas[j].copy();  
  127.         if (oS.labelMat[i] != oS.labelMat[j]):  
  128.             L = max(0, oS.alphas[j] - oS.alphas[i])  
  129.             H = min(oS.C, oS.C + oS.alphas[j] - oS.alphas[i])  
  130.         else:  
  131.             L = max(0, oS.alphas[j] + oS.alphas[i] - oS.C)  
  132.             H = min(oS.C, oS.alphas[j] + oS.alphas[i])  
  133.         if L==H: print "L==H"return 0  
  134.         eta = 2.0 * oS.K[i,j] - oS.K[i,i] - oS.K[j,j] #changed for kernel  
  135.         if eta >= 0print "eta>=0"return 0  
  136.         oS.alphas[j] -= oS.labelMat[j]*(Ei - Ej)/eta  
  137.         oS.alphas[j] = clipAlpha(oS.alphas[j],H,L)  
  138.         updateEk(oS, j) #added this for the Ecache  
  139.         if (abs(oS.alphas[j] - alphaJold) < 0.00001): print "j not moving enough"return 0  
  140.         oS.alphas[i] += oS.labelMat[j]*oS.labelMat[i]*(alphaJold - oS.alphas[j])#update i by the same amount as j  
  141.         updateEk(oS, i) #added this for the Ecache                    #the update is in the oppostie direction  
  142.         b1 = oS.b - Ei- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,i] - oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[i,j]  
  143.         b2 = oS.b - Ej- oS.labelMat[i]*(oS.alphas[i]-alphaIold)*oS.K[i,j]- oS.labelMat[j]*(oS.alphas[j]-alphaJold)*oS.K[j,j]  
  144.         if (0 < oS.alphas[i]) and (oS.C > oS.alphas[i]): oS.b = b1  
  145.         elif (0 < oS.alphas[j]) and (oS.C > oS.alphas[j]): oS.b = b2  
  146.         else: oS.b = (b1 + b2)/2.0  
  147.         return 1  
  148.     elsereturn 0  
  149.   
  150. def smoP(dataMatIn, classLabels, C, toler, maxIter,kTup=('lin'0)):    #full Platt SMO  
  151.     oS = optStruct(mat(dataMatIn),mat(classLabels).transpose(),C,toler, kTup)  
  152.     iter = 0  
  153.     entireSet = True; alphaPairsChanged = 0  
  154.     while (iter < maxIter) and ((alphaPairsChanged > 0or (entireSet)):  
  155.         alphaPairsChanged = 0  
  156.         if entireSet:   #go over all  
  157.             for i in range(oS.m):          
  158.                 alphaPairsChanged += innerL(i,oS)  
  159.                 print "fullSet, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged)  
  160.             iter += 1  
  161.         else:#go over non-bound (railed) alphas  
  162.             nonBoundIs = nonzero((oS.alphas.A > 0) * (oS.alphas.A < C))[0]  
  163.             for i in nonBoundIs:  
  164.                 alphaPairsChanged += innerL(i,oS)  
  165.                 print "non-bound, iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged)  
  166.             iter += 1  
  167.         if entireSet: entireSet = False #toggle entire set loop  
  168.         elif (alphaPairsChanged == 0): entireSet = True    
  169.         print "iteration number: %d" % iter  
  170.     return oS.b,oS.alphas  


你可能感兴趣的:(SVM实战之垃圾邮件过滤)