《机器学习技法》学习笔记02——对偶SVM

http://blog.csdn.net/u011239443/article/details/76574969

对偶SVM的目标

如果是非线性SVM,那么问题变成了:

《机器学习技法》学习笔记02——对偶SVM_第1张图片

$z_n是x_n在d+1$高维空间映射所得到的值,于是就出现了困境:

对偶SVM的目标就是:

《机器学习技法》学习笔记02——对偶SVM_第2张图片

我们由拉格朗日乘子法得:

《机器学习技法》学习笔记02——对偶SVM_第3张图片

因为$y_n(w^Tz_n+b)>=1$
所以$1-y_n(w^Tz_n+b)<=0$
为了让符号不变,我们规定$α_n >=0 $,
则$α_n(1-y_n(w^Tz_n+b)<=0)$
则$1/2wTw+α_n(1-y_n(wTz_n+b)<=0)<=1/2w^Tw$
则$max(1/2wTw+α_n(1-y_n(wTz_n+b)<=0)) 约等于 1/2w^Tw$
所以我们的问题就变成了:

下面式子中方括号代表$1/2wTw$,如果超平面分割预测和真实点的函数值$y_n(wTz_n+b)$有误or正确却在间隔带内,则$y_n(w^Tz_n+b) < 1$,则$1-y_n(w^Tz_n+b) > 0 $,则max(L(b,w,α))趋于无穷。
$y_n(wTz_n+b)$正确且在间隔带外(包含间隔带边界),则$y_n(wTz_n+b) >= 1$,则$1-y_n(w^Tz_n+b) <= 0 $,则$max(L(b,w,α))=1/2w^Tw$

《机器学习技法》学习笔记02——对偶SVM_第4张图片

于是我们的问题就变成:

拉格朗日对偶SVM

上式问题并不好解。我们有:

《机器学习技法》学习笔记02——对偶SVM_第5张图片

由于上式右边的最大值还是要小于等于左边式子,于是我们就得到了拉格朗日对偶问题:

《机器学习技法》学习笔记02——对偶SVM_第6张图片

当上式符合约束规格时等号就成立。约束规格:
1.是凸优化
2.存在解
3.约束条件是线性的

这里符合约束规格,于是我们的问题变成了:

《机器学习技法》学习笔记02——对偶SVM_第7张图片

这样括号里面就成了只是关于b和w的问题,我们可以先求括号里面。对L关于b求导:


把它代入问题中,就消去了b:

再对L关于w求导:

把它代入问题得到:

《机器学习技法》学习笔记02——对偶SVM_第8张图片

该问题最优化需要符合KKT条件:
1.原问题约束:

2.对偶问题约束:

3.原问题的最优化条件:

4.对偶问题的最优化条件:

求解对偶SVM

对问题乘以-1,得到最小化问题:

《机器学习技法》学习笔记02——对偶SVM_第9张图片

当我们用KKT条件求解出二次规划最优解$α_n$之后,我们如何求解w和b呢?
w很简单,就用对偶问题的最优化条件能求出来。
求解b,由原问题约束、对偶问题约束和原问题的最优化条件可知:

对偶问题背后的意义

我们之前说过,“寻找与超平面最近的点”,所以除边界上的点外,其他点对优化没有意义。
我们称$α_n>0$ 的$(z_n ,y_n )$为支持向量:

我们也可以看到,其实也只有边界上的支持向量才会代入计算:

《机器学习技法》学习笔记02——对偶SVM_第10张图片

从另外一个角度看,无论是SVM 还是 PLA,w都是$y_nz_n$的组合,可以看成是由数据表示出来的:

《机器学习技法》学习笔记02——对偶SVM_第11张图片

我们来回顾下对偶SVM的目标:

《机器学习技法》学习笔记02——对偶SVM_第12张图片

我们已经基本上达成这个目标:

《机器学习技法》学习笔记02——对偶SVM_第13张图片

但是我们还留有一个问题,$Q_D$中:

所以搞了半天,依旧存在z,即依旧存在x到d+1高维空间的映射,d依旧可能非常大甚至趋于无穷。这该如何是好呢,请听下回分解~

《机器学习技法》学习笔记02——对偶SVM_第14张图片
这里写图片描述

你可能感兴趣的:(《机器学习技法》学习笔记02——对偶SVM)