机器学习技法(三)

《机器学习技法》是国立台湾大学林轩田讲授的一门课程,课程的上集是《机器学习基石》。相关资源可以在youtube找到,也可在评论区索要云盘链接。本文主要是我学完一遍基石&技法后的笔记梳理,如果存疑请以原课程讲授内容为准,欢迎讨论~[注]本文仅适用于帮助复习,不适用于代替视频课程。

技法分为3个部分,分别为

● 核模型:嵌入大量特征(6小节)

● 融合模型:融合预测性特征(5小节)

● 抽取模型:提取隐性特征(4小节)

本文主要梳理第三部分。

三 抽取模型:提取隐性特征

1神经网络(多层融合、模式抽取)

1.1启发

1.1.1一层perceptrons(线性投票)


机器学习技法(三)_第1张图片


机器学习技法(三)_第2张图片

1.1.2多层perceptrons


机器学习技法(三)_第3张图片

1.2神经网络

1.2.1每一层的转换tanh函数


机器学习技法(三)_第4张图片

每一层接受一个加权分数,用tanh转换得到本层的神经元。

1.2.2输出 一个简单线性模型


机器学习技法(三)_第5张图片

1.2.3神经网络全貌


机器学习技法(三)_第6张图片

物理意义:


机器学习技法(三)_第7张图片

1.3 w的训练


机器学习技法(三)_第8张图片

1.3.1最后一层的偏微分


机器学习技法(三)_第9张图片

1.3.2中间层的偏微分


机器学习技法(三)_第10张图片

综上,先算最后一层的偏微分,再反向地算中间层的偏微分。每一层通过各自的随机梯度做梯度下降,逐步优化本层的w

1.4神经网络的VC维度


机器学习技法(三)_第11张图片

1.5神经网络的正则化

1.5.1加正则项


L2正则化存在以下问题:


解决方式:


机器学习技法(三)_第12张图片

1.5.2早停止


机器学习技法(三)_第13张图片

2深度学习(deep NNet)

2.1例子


机器学习技法(三)_第14张图片

2.2问题


机器学习技法(三)_第15张图片

2.3 optimazation problem:pre-training


机器学习技法(三)_第16张图片

2.3.1希望预训练得到的w是保留原信息的


机器学习技法(三)_第17张图片

autoencoder:


机器学习技法(三)_第18张图片

2.3.1.1优点:


机器学习技法(三)_第19张图片

2.3.1.2基本形式


机器学习技法(三)_第20张图片

2.3.2基于autoencoders的pre-Trainning


机器学习技法(三)_第21张图片

2.4 complexity problem:regularization

2.4.1继承NN的方法


2.4.2去杂讯:denoisingautoencoder


机器学习技法(三)_第22张图片

2.5线性autoencoder

deep learning用的是tanh

autoencoder,如果不是用于DL,那可以用线性autoencoder


机器学习技法(三)_第23张图片

2.5.1最优化


矩阵分解:


机器学习技法(三)_第24张图片

最优化г:


机器学习技法(三)_第25张图片

最优化V:


机器学习技法(三)_第26张图片

2.5.2线性autoencoder算法(主成分分析)


机器学习技法(三)_第27张图片

作用:通过线性组合的方式对资料进行降维。

3 Radial Basis Function Network径向基函数网络(基函数的融合)

3.1定义


机器学习技法(三)_第28张图片

与NN的不同(由于区别较小,过去它被当作一种特殊的NN):


3.2高斯SVM


机器学习技法(三)_第29张图片

它其实就是一个RBFN:


3.3距离的物理意义


机器学习技法(三)_第30张图片

3.4 Full RBF Network基于全部点的RBF网络

3.4.1μ:所有点


机器学习技法(三)_第31张图片

3.4.2β:独裁


机器学习技法(三)_第32张图片

3.4.3β:插值法


机器学习技法(三)_第33张图片

3.4.4正则化

3.4.4.1惩罚β:


机器学习技法(三)_第34张图片

3.4.4.2减少μ:


机器学习技法(三)_第35张图片

选议员是一个分群问题


机器学习技法(三)_第36张图片


机器学习技法(三)_第37张图片

3.4.4.1分群最优化


机器学习技法(三)_第38张图片

3.4.4.2代表最优化


机器学习技法(三)_第39张图片

3.4.4.3 k-Means算法


机器学习技法(三)_第40张图片

例子:


机器学习技法(三)_第41张图片

3.4.5采用k-Means算法的RBF网络


机器学习技法(三)_第42张图片

例子:


机器学习技法(三)_第43张图片

离中心点越近的点产生的影响越大。

与full RBF network的比较


机器学习技法(三)_第44张图片

中间是4-means RBFN结果,左右两幅是full RBFN

4 Matrix Factorization矩阵分解

案例


机器学习技法(三)_第45张图片

4.1二元向量编码


机器学习技法(三)_第46张图片

对本案例电影资料进行编码:


机器学习技法(三)_第47张图片

4.2用线性网络进行预测


机器学习技法(三)_第48张图片


机器学习技法(三)_第49张图片

4.2.1实质:矩阵分解


机器学习技法(三)_第50张图片

4.2.2矩阵分解学习


4.2.2.1交替最小平方法

4.2.2.1.1思路


机器学习技法(三)_第51张图片

4.2.2.1.2算法


机器学习技法(三)_第52张图片

4.2.2.1.3与Linear Autoencoder的比较:


机器学习技法(三)_第53张图片

4.2.2.2随机梯度下降法

4.2.2.2.1思路


机器学习技法(三)_第54张图片


机器学习技法(三)_第55张图片

4.2.2.2.2算法


机器学习技法(三)_第56张图片

4.2.2.2.3应用


机器学习技法(三)_第57张图片

5总结

5.1模型结构


机器学习技法(三)_第58张图片

5.2技法


机器学习技法(三)_第59张图片

5.3优缺点


机器学习技法(三)_第60张图片

四 大总结

1特征的利用方法

1.1通过核利用大量特征(xn)


机器学习技法(三)_第61张图片

1.2通过融合利用预测特征(gn)


机器学习技法(三)_第62张图片

1.3通过特征分解利用隐藏特征


机器学习技法(三)_第63张图片

1.4通过压缩利用低维特征


机器学习技法(三)_第64张图片

2最优化

2.1通过梯度下降进行数值最优化


机器学习技法(三)_第65张图片

2.2通过等价法进行间接最优化


机器学习技法(三)_第66张图片

2.3通过分步法进行复杂最优化


机器学习技法(三)_第67张图片

3消除过拟合

3.1通过正则化(刹车)消除过拟合


机器学习技法(三)_第68张图片

3.2通过验证(仪表板)消除过拟合


机器学习技法(三)_第69张图片

4 KDDCup经验


机器学习技法(三)_第70张图片


机器学习技法(三)_第71张图片


机器学习技法(三)_第72张图片


机器学习技法(三)_第73张图片

5 2006年算法排名


机器学习技法(三)_第74张图片

你可能感兴趣的:(机器学习技法(三))