支持向量机的的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题,也等价于正则化的合业损失函数的最小化问题。
给定训练样本集D={(x1,y1),(x2,y2),...,(xm,ym)},yi{-1,+1},分类学习的最基本想法基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开。
样本空间中,划分超平面可通过如下线性方程来描述:
x+b=0(为法向量,b为位移项)
样本空间任意点x到超平面(,b)的距离可写为
r=|x+b| / ||||
如下图,距离超平面最近的几个点使得等式成立,称其为支持向量,两个异类支持向量到超平面的距离之和为
Margins
与b的求解可对上述式子使用拉格朗日乘子法得到其“对偶问题”求解,在此不做过多讲述(最终模型只与支持向量有关)。
注:对于训练样本非线性可分,就需要将样本映射到一个更高维的特征空间,使得样本在这个特征空间中线性可分,但是高维同时也意味着计算量的急剧提升,所以引入了核函数,将高维问题通过数学技巧在低维解决,事实上只要一个对称函数所对应的核矩阵半正定,他就能作为核函数使用。
通过最小化误差的平方和,使得拟合对象无限接近目标对象
拟合的前提:
求参的过程就是拟合的过程。
最小二乘支持向量机将SVM不等式约束改用等式约束
为了解决存在部分特异点的情况,给每一个样本引入误差变量ei,并在原始函数中加入误差变量的L2正则项。这样LSSVM的优化问题就转化为
其中,λ为正则化参数。对于非线性可分的训练样本,可以将原始样本从映射到更高维的线性可分的空间中。φ(xi)将xi映射到更高维空间中
LSSVM的优化问题是一个带有等式约束的QP问题,求解可对上述式子使用拉格朗日乘子法得到其“对偶问题”求解
参考资料:
【1】https://blog.csdn.net/Luqiang_Shi/article/details/84204636
【2】机器学习/周志华著.-北京:清华大学出版社
【3】统计学习方法/李航著.-北京:清华大学出版社