支持向量机(《Machine Learning in Action》笔记)

优点:泛化错误率低,计算开销不大,结果易解释,几乎所有的分类问题都可以使用SVM
缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适合于处理二类问题。
适用数据类型:数值型和标称型数据

啥叫“支持向量”:离分隔超平面最近的那些点

Platt的SMO(序列最小化,Sequential Minimal Optimization)算法:将最大化问题分解为多个小优化问题来求解。

import numpy

def loadDataSet(filename):
    ''' 打开文件,对文件内容逐行解析 输入: 文件名 输出:数据矩阵(列表表示),类别标签 '''
    dataMat = []
    labelMat = []
    fr = open(filename)
    for line in fr.readlines():
        lineArr = line.strip().split('\t')
        dataMat.append([float(lineArr[0]), float(lineArr[1])])
        labelMat.append(float(lineArr[2]))
    return dataMat, labelMat

def selectJrand(i, m):
    ''' 输入:i是第一个alpha的下标; m是所有alpha的数目 输出:随机选择出的alpha值 '''
    j = i
    while j != i:
        j = int(numpy.random.uniform(0, m))
    return j

def clipAlpha(aj, H, L):
    ''' 调整大于或者小于alpha的值 '''
    if aj > H:
        aj = H
    if L > aj:
        aj = L
    return aj

def smoSimple(dataMatIn, classLabels, C, toler, maxIter):
    ''' 输入:数据集,类别标签,常数C,容错率,取消前最大的循环次数 将多个列表和输入参数转换成Numpy矩阵,有利于简化很多数学处理操作 '''
    dataMatrix = numpy.mat(dataMatIn)
    labelMat = numpy.mat(classLabels).transpose()       #装置类别标签,得到了一个 列 向量,而不是列表
    b = 0; 
    m,n = numpy.shape(dataMatrix)
    alphas = numpy.mat(numpy.zeros((m,1)))
    iter = 0
    while (iter < maxIter):     #循环
        alphaPairsChanged = 0       #记录alpha是否已经进行优化
        for i in range(m):
            fXi = float(numpy.multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[i,:].T)) + b       #预测的类别
            Ei = fXi - float(labelMat[i])       #计算误差
            if ((labelMat[i]*Ei < -toler) and (alphas[i] < C)) or ((labelMat[i]*Ei > toler) and (alphas[i] > 0)):
                j = selectJrand(i,m)        #选择第二个alpha值
                fXj = float(numpy.multiply(alphas,labelMat).T*(dataMatrix*dataMatrix[j,:].T)) + b
                Ej = fXj - float(labelMat[j])
                alphaIold = alphas[i].copy() 
                alphaJold = alphas[j].copy()
                if (labelMat[i] != labelMat[j]):
                    L = max(0, alphas[j] - alphas[i])
                    H = min(C, C + alphas[j] - alphas[i])
                else:
                    L = max(0, alphas[j] + alphas[i] - C)
                    H = min(C, alphas[j] + alphas[i])
                if L==H: 
                    print "L==H"
                    continue
                #eta是alpha[j]的最优修改量,
                eta = 2.0 * dataMatrix[i,:]*dataMatrix[j,:].T - dataMatrix[i,:]*dataMatrix[i,:].T - dataMatrix[j,:]*dataMatrix[j,:].T
                if eta >= 0: 
                    print "eta>=0"
                    continue
                alphas[j] -= labelMat[j] * (Ei - Ej) / eta
                alphas[j] = clipAlpha(alphas[j],H,L)        #调用辅助函数调整
                if (abs(alphas[j] - alphaJold) < 0.00001): 
                    print "j not moving enough"
                    continue
                alphas[i] += labelMat[j] * labelMat[i] * (alphaJold - alphas[j])
                b1 = b - Ei - labelMat[i] * (alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[i,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[i,:]*dataMatrix[j,:].T
                b2 = b - Ej - labelMat[i] * (alphas[i]-alphaIold)*dataMatrix[i,:]*dataMatrix[j,:].T - labelMat[j]*(alphas[j]-alphaJold)*dataMatrix[j,:]*dataMatrix[j,:].T
                if (0 < alphas[i]) and (C > alphas[i]): 
                    b = b1
                elif (0 < alphas[j]) and (C > alphas[j]): 
                    b = b2
                else: 
                    b = (b1 + b2)/2.0
                alphaPairsChanged += 1
                print "iter: %d i:%d, pairs changed %d" % (iter,i,alphaPairsChanged)
        if (alphaPairsChanged == 0): 
            iter += 1
        else: 
            iter = 0
        print "iteration number: %d" % iter
    return b,alphas

SVM这部分有点难度,主要是理解上的困难,这部分主要是理解原理就好。。。

你可能感兴趣的:(支持向量机(《Machine Learning in Action》笔记))