机器学习技法(一)

《机器学习技法》是国立台湾大学林轩田讲授的一门课程,课程的上集是《机器学习基石》。相关资源可以在youtube找到,也可在评论区索要云盘链接。本文主要是我学完一遍基石&技法后的笔记梳理,如果存疑请以原课程讲授内容为准,欢迎讨论~[注]本文仅适用于帮助复习,不适用于代替视频课程。

技法分为3个部分,分别为

● 核模型:嵌入大量特征(6小节)

● 融合模型:融合预测性特征(5小节)

● 抽取模型:提取隐性特征(4小节)

本文主要梳理第一部分。

一 核模型:嵌入大量特征(6)

1线性SVM(support vector machine支持向量机)

1.1 Fat Hyperplane

机器学习技法(一)_第1张图片


机器学习技法(一)_第2张图片

1.1.1求距离



机器学习技法(一)_第3张图片


机器学习技法(一)_第4张图片

去掉绝对值符号:


机器学习技法(一)_第5张图片

1.1.2代入Hyperplane公式,


机器学习技法(一)_第6张图片

采用某种特殊的比例,将min yn(…)放缩成1,


机器学习技法(一)_第7张图片

进一步放宽条件


机器学习技法(一)_第8张图片

1.1.3例子


机器学习技法(一)_第9张图片

1.2 SVM


机器学习技法(一)_第10张图片

1.2.1二次规划求解


机器学习技法(一)_第11张图片


机器学习技法(一)_第12张图片

1.2.2线性硬边界SVM算法


机器学习技法(一)_第13张图片

1.2.3与regularization的关系


机器学习技法(一)_第14张图片

可以看作是一种针对w的regularization

1.2.4优点

1.2.4.1复杂度更小


机器学习技法(一)_第15张图片

其中ρ是胖度,d是perceptron的维度(平面上是2D perceptron)

[注]同H的VC dimension指H能shatter几种情况,A的VC dimension指A能shatter几种情况

1.2.4.2更好泛化


机器学习技法(一)_第16张图片

1.2.4.3可进一步应用于非线性问题


机器学习技法(一)_第17张图片

2对偶SVM

2.1 SVM的问题


机器学习技法(一)_第18张图片

2.1.1隐藏条件


机器学习技法(一)_第19张图片

2.1.2调换max和min


机器学习技法(一)_第20张图片


机器学习技法(一)_第21张图片

2.1.3对b求偏微分,去掉b


机器学习技法(一)_第22张图片

2.1.4对w求偏微分,去掉w


机器学习技法(一)_第23张图片

2.1.5求解α

2.1.5.1满足KKT条件才有最优化解


机器学习技法(一)_第24张图片

其中原始内部最优时的公式出自2.1.1

2.1.5.2化为标准形式


机器学习技法(一)_第25张图片

2.1.5.3使用QP求解器求解α


机器学习技法(一)_第26张图片

存在问题:


机器学习技法(一)_第27张图片

2.1.5.4反过来求解b和w


机器学习技法(一)_第28张图片

2.1.5.5缩小w和b的计算范围


机器学习技法(一)_第29张图片

在没有算出w和b之前,我又怎么知道谁是SV呢?αn>0说明(zn,yn)是SV

2.2 VS PLA


机器学习技法(一)_第30张图片

2.3 VS原来的SVM


机器学习技法(一)_第31张图片

殊途同归。

2.4真的与d无关了吗?


机器学习技法(一)_第32张图片

对偶SVM并不能做到与d真正无关,但下一讲的核SVM能够做到。

3核SVM

3.1核函数


机器学习技法(一)_第33张图片


机器学习技法(一)_第34张图片

Φ2-2表示2次(多项式转换)

3.2运用于SVM,简化q、b、g的计算


机器学习技法(一)_第35张图片

3.3 Kernel SVM算法


机器学习技法(一)_第36张图片

3.4其它核

3.4.1二次多项式核的一般形式


机器学习技法(一)_第37张图片

不同形式的二次多项式核对应同样的空间,但边界会有差异:


机器学习技法(一)_第38张图片

3.4.2其它次数多项式核的一般形式


机器学习技法(一)_第39张图片

3.4.3高斯核

3.4.3.1高斯核对应无限维的空间


机器学习技法(一)_第40张图片

3.4.3.2高斯SVM


机器学习技法(一)_第41张图片

3.4.3.3高斯SVM的表现


机器学习技法(一)_第42张图片

3.4.4核的选择


机器学习技法(一)_第43张图片


机器学习技法(一)_第44张图片


机器学习技法(一)_第45张图片

3.4.5其它有效的核


机器学习技法(一)_第46张图片

核矩阵必须对称、半正定(困难,各阶主子式均≥0)

4软边界SVM

4.1硬边界的缺点


机器学习技法(一)_第47张图片

4.2软边界


机器学习技法(一)_第48张图片

4.2.1合并条件


机器学习技法(一)_第49张图片

4.2.2去掉布尔运算



机器学习技法(一)_第50张图片

4.2.3用拉格朗日乘数法去掉条件,转为对偶SVM


机器学习技法(一)_第51张图片

4.2.4对ξ求偏微分,去掉ξ和β项


机器学习技法(一)_第52张图片

4.2.5对b、w偏微分,去掉w和y项


机器学习技法(一)_第53张图片


机器学习技法(一)_第54张图片

4.2.6 kernel软边界SVM算法求解α


机器学习技法(一)_第55张图片

4.2.7 complementary slackness求解b


机器学习技法(一)_第56张图片

[注]αn对数据点n的物理意义


机器学习技法(一)_第57张图片

[补充]α=0时,β=C-α=0,ξ≥0条件失效,故SV(α=C)落在边界内。

4.2.8总结


机器学习技法(一)_第58张图片

4.3软边界的效果


机器学习技法(一)_第59张图片

γ是高斯核的参数,越大边界越尖。C是软SVM的参数,越大越不能容忍杂讯。

4.3.1根据交叉验证做选择


机器学习技法(一)_第60张图片

4.3.2根据SV的数量做选择


机器学习技法(一)_第61张图片

只有SV作为验证点的时候,会导致err,从而影响Eloocv,故可以依据SV的数量做选择:


机器学习技法(一)_第62张图片

5核回归模型

5.1将SVM看作regularized模型

5.1.1 Soft-Margin Primal去条件


机器学习技法(一)_第63张图片

5.1.2 VS L2 regularization


机器学习技法(一)_第64张图片

不把SVM当作regularization来解是因为它不是QP,不好解,kernel trick用不上。

故,无论hard-margin还是soft-margin

SVM的目标函数都很像regularization


机器学习技法(一)_第65张图片

把SVM看作普通的regularization,可以启发我们推广到其它模型。

5.2 SVM用于L2范数逻辑回归

5.2.1误差函数的相似性


机器学习技法(一)_第66张图片

5.2.2用SVM配合LogReg


机器学习技法(一)_第67张图片

用SVM直接获得最终解或者仅用SVM获得一个初始解都不是一个好方法


机器学习技法(一)_第68张图片

用SVM获得一个分数(从n维转到了1维),再用这个一维分数来做逻辑回归,最大似然

5.2.2.1 probabilistic(概率的) SVM算法(“两步”算法)


机器学习技法(一)_第69张图片

通过这个算法获得了soft binary classifier,但由于B,它的边界会发生变化。

5.2.3用核直接求解LogReg

L2-LogReg能不能用核优化?


机器学习技法(一)_第70张图片


机器学习技法(一)_第71张图片

证明了L2-regularized linear model可以用kernel trick

5.2.3.1核逻辑回归算法(KLR)(“一步”算法)


机器学习技法(一)_第72张图片

5.3用核直接求解岭回归(L2范数线性回归)


机器学习技法(一)_第73张图片


机器学习技法(一)_第74张图片


机器学习技法(一)_第75张图片

通过核岭回归能够直接得到β的解析解,从而得到w*=ΣβZ

5.3.1 VS线性岭回归


机器学习技法(一)_第76张图片

一个高效(大数据时),一个灵活(可以做非线性的)

6 SVR(支持向量回归)

6.1 LSSVM的问题(用核岭回归做分类的SVM)


机器学习技法(一)_第77张图片

LSSVM的SV太多了

6.2 tube回归


机器学习技法(一)_第78张图片

线性回归用平方估错,tube回归用tube估错

6.3 SVR(L2范数-tube回归的标准SVM(反过来的regularization)形式)

L2范数-tube回归


化成标准SVM形式


机器学习技法(一)_第79张图片


机器学习技法(一)_第80张图片

即为SVR

6.3.1化为对偶形式(用拉格朗日算子去掉条件)


机器学习技法(一)_第81张图片

满足KKT条件,有最优化解。

对偶形式:


机器学习技法(一)_第82张图片

形式与SVM dual类似,接下来可以用QP求解器求解。

6.3.2 SVR的解是稀疏矩阵


机器学习技法(一)_第83张图片

它的SV仅在tube上或tube外

7总结


机器学习技法(一)_第84张图片

你可能感兴趣的:(机器学习技法(一))