文章主要参考 github 仓库 Lihang 添加自己的一点思考
直接看目录结构,会感觉有点乱,就层级结构来讲感觉并不整齐。第二版重新梳理了这部分目录结构,舒服多了,尤其之前的分类,回归与标注因为出现了 1.10 造成目录中这部分不对齐,非常不爽。结果,第二版改了。赞
本章最后的三个部分,这三个问题可以对比着看,如果暂时没有概念,略过也可以,回头对各个算法有了感觉回头再看这里。
这三部分怎么对比,三部分都有个图来说明,仔细看下差异,本文后面会对此展开。
关于损失函数,风险函数与目标函数注意体会差异
后面插点从深度学习角度拿到的点
书中例子 1.1 可以参考PRML中对应的表述, 更详细些。
在监督学习中输入和输出对称为样本,在无监督学习中输入是样本。
注意在介绍输入空间,输出空间等概念的时候,以及这一章的很多部分都会有个帽子,监督学习中
, 书中也明确了本书主要讨论监督学习的问题
,最后的概要总结部分对监督学习有这样的描述:监督学习可以概括如下:从给定有限的训练数据出发,假设数据是独立同分布的,而且假设模型属于某个假设空间,应用某一评价准则,从假设空间中选取一个最优的模型,使它对已给的训练数据以及未知测试数据在给定评价标准意义下有最准确的预测。
,理解下这里的假设。
在贝叶斯学习部分,提到将模型、为观测要素及其参数用变量表示,使用模型的先验分布是贝叶斯学习的特点。
注意这里面先验是模型的先验分布。
在泛化误差部分,用了 f ^ \hat f f^ 表示最优估计,这个有时候也会用 f ∗ f^* f∗表示意思差不多。有时候表示向量又要表示估计值,用 ∗ * ∗ 可能好看一点,比如 x ⃗ ∗ \vec x^* x∗,但是通常没本书都有自己的符号体系,向量可以通过字体表示,具体可以从书中的符号表部分了解。关于这一点,在第二版第一章就有所体现,监督和无监督学习中,模型用 hat 表示,在强化学习中,最优解用 * 表示。
提一下参考文献,几个大部头都在,ESL,PRML,DL,PGM,西瓜书,还有 Sutton 的强化学习,不过这本书2018年出了第二版,感兴趣的话可以看新版。
统计学习方法三要素:模型,策略,算法
- 得到一个有限的训练数据集合
- 确定包含所有可能的模型的假设空间,即学习模型的集合
- 确定模型选择的准则,即学习的策略
- 实现求解最优模型的算法,即学习的算法
- 通过学习方法选择最优的模型
- 利用学习的最优模型对新数据进行预测或分析
这部分内容新增了无监督学习和强化学习。值得注意的一个点,之前因为只写了监督学习,样本表示(x, y)对,在无监督学习里面,样本就是x。
在监督学习中,概率模型是生成模型,非概率模型是判别模型。
在线学习
批量学习
在线学习通常比批量学习更难。
输入与输出之间的映射,即 f
在监督学习过程中,模型就是所要学习的条件概率分布或者决策函数。
注意书中的这部分描述,整理了一下到表格里:
模型的假设空间(hypothesis space) 包含所有可能的条件概率分布或决策函数。假设空间中的模型一般有无穷多个。
假设空间KaTeX parse error: Undefined control sequence: \cal at position 1: \̲c̲a̲l̲ ̲F | 输入空间KaTeX parse error: Undefined control sequence: \cal at position 1: \̲c̲a̲l̲ ̲X | 输出空间KaTeX parse error: Undefined control sequence: \cal at position 1: \̲c̲a̲l̲ ̲Y | 参数空间 | |
---|---|---|---|---|
决策函数 | $\cal F\it ={f_{\theta} | Y=f_{\theta}(x), \theta \in \bf R \it ^n}$ | 变量 | 变量 |
条件概率分布 | $\cal F\it ={P | P_{\theta}(Y | X),\theta\in \bf R \it ^n}$ | 随机变量 |
书中描述的时候,有提到条件概率分布族,这个留一下,后面CH06有提到确认逻辑斯谛分布属于指数分布族。
损失函数(loss function)度量模型一次预测的好坏,风险函数(risk function)度量平均意义下模型预测的好坏,经验风险(empirical risk)是训练样本的平均损失,由大数定律经验风险趋于期望风险。
损失函数(loss function)或代价函数(cost function)
损失函数定义为给定输入 X X X的预测值 f ( X ) f(X) f(X)和真实值 Y Y Y之间的非负实值函数,记作 L ( Y , f ( X ) ) L(Y,f(X)) L(Y,f(X))
风险函数(risk function)或期望损失(expected loss)
这个和模型的泛化误差的形式是一样的
R e x p ( f ) = E p [ L ( Y , f ( X ) ) ] = ∫ X × Y L ( y , f ( x ) ) P ( x , y ) d x d y R_{exp}(f)=E_p[L(Y, f(X))]=\int_{\mathcal X\times\mathcal Y}L(y,f(x))P(x,y)\, {\rm d}x{\rm d}y Rexp(f)=Ep[L(Y,f(X))]=∫X×YL(y,f(x))P(x,y)dxdy
模型 f ( X ) f(X) f(X) 关于联合分布 P ( X , Y ) P(X,Y) P(X,Y) 的平均意义下的损失(期望损失),但是因为 P ( X , Y ) P(X,Y) P(X,Y) 是未知的,所以前面的用词是期望,以及平均意义下的。
这个表示其实就是损失的均值,反映了对整个数据的预测效果的好坏, P ( x , y ) P(x,y) P(x,y) 转换成 ν ( X = x , Y = y ) N \frac {\nu(X=x, Y=y)}{N} Nν(X=x,Y=y) 更容易直观理解, 可以参考CH09,6.2.2 节的部分描述来理解,但是真实的数据 N 是无穷的。
经验风险(empirical risk)或经验损失(empirical loss)
R e m p ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) R_{emp}(f)=\frac{1}{N}\sum^{N}_{i=1}L(y_i,f(x_i)) Remp(f)=N1∑i=1NL(yi,f(xi))
模型 f f f 关于训练样本集的平均损失
根据大数定律,当样本容量 N 趋于无穷大时,经验风险趋于期望风险
结构风险(structural risk)
R s r m ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) R_{srm}(f)=\frac{1}{N}\sum_{i=1}^{N}L(y_i,f(x_i))+\lambda J(f) Rsrm(f)=N1∑i=1NL(yi,f(xi))+λJ(f)
J ( f ) J(f) J(f) 为模型复杂度, λ ⩾ 0 \lambda \geqslant 0 λ⩾0 是系数,用以权衡经验风险和模型复杂度。
损失函数数值越小,模型就越好
0-1损失
L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y,f(X))=\begin{cases}1, Y \neq f(X) \\0, Y=f(X) \end{cases} L(Y,f(X))={1,Y=f(X)0,Y=f(X)
平方损失
L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y,f(X))=(Y-f(X))^2 L(Y,f(X))=(Y−f(X))2
绝对损失
L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y,f(X))=|Y-f(X)| L(Y,f(X))=∣Y−f(X)∣
对数损失
这里 P ( Y ∣ X ) ⩽ 1 P(Y|X)\leqslant 1 P(Y∣X)⩽1,对应的对数是负值,所以对数损失中包含一个负号,为什么不是绝对值?因为肯定是负的。
L ( Y , P ( Y ∣ X ) ) = − log P ( Y ∣ X ) L(Y,P(Y|X))=-\log P(Y|X) L(Y,P(Y∣X))=−logP(Y∣X)
样本容量足够大时经验风险最小化(ERM)有很好的效果
小本容量很小时,ERM 会产生过拟合现象——>结构风险最小化(SRM)
经验风险最小化(ERM)与结构风险最小化(SRM)的联系和区别
极大似然估计是经验风险最小化的一个例子
当模型是条件概率分布,损失函数是对数损失函数时,经验风险最小化等价于极大似然估计(证明)
贝叶斯估计中的最大后验概率估计是结构风险最小化的一个例子
当模型是条件概率分布,损失函数是对数损失函数,模型复杂度由模型的先验概率表示时,结构风险最小化等价于最大后验概率估计
计算方法,即最优化问题的求解
如何保证找到全局最优解,并使求解的过程非常高效
这章里面简单提了一下,具体可以参考CH12表格中关于学习算法的描述。
模型评估:训练误差和测试误差
模型选择:提高模型预测能力;避免过拟合
训练误差和测试误差是模型关于数据集的平均损失。
提到一句, 统计学习方法具体采用的损失函数未必是评估时使用的损失函数
,这句理解下。参考下在数据科学比赛中给出的评分标准,与实际学习采用的损失函数之间的关系。
这部分讲到了最小二乘法,给了PRML中的一个例子。
这个问题中训练数据为 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x N , y N ) } T=\{(x_1, y_1),(x_2,y_2),\cdots,(x_N,y_N)\} T={(x1,y1),(x2,y2),⋯,(xN,yN)}
模型为
f M ( x , w ) = w 0 + w 1 x + w 2 x 2 + ⋯ + w M x M = ∑ j = 0 M w j x j f_M(x,w)=w_0+w_1x+w_2x^2+\cdots+w_Mx^M=\sum\limits_{j=0}^Mw_jx^j fM(x,w)=w0+w1x+w2x2+⋯+wMxM=j=0∑Mwjxj
经验风险最小化策略下
L ( w ) = 1 2 ∑ i = 1 N ( f ( x i , w ) − y i ) 2 L(w)=\frac{1}{2}\sum\limits_{i=1}^N(f(x_i,w)-y_i)^2 L(w)=21i=1∑N(f(xi,w)−yi)2
将模型和训练数据带入到上式得到
L ( w ) = 1 2 ∑ i = 1 N ( ∑ j = 0 M w j x i j − y i ) 2 = 1 2 ∑ i = 1 N ( w ⋅ x i − y i ) 2 L(w)=\frac{1}{2}\sum\limits_{i=1}^N\left(\sum\limits_{j=0}^Mw_jx_i^j-y_i\right)^2=\frac{1}{2}\sum\limits_{i=1}^N(w\cdot x_i-y_i)^2 L(w)=21i=1∑N(j=0∑Mwjxij−yi)2=21i=1∑N(w⋅xi−yi)2
这个问题要求 w = ( w 0 ∗ , w 1 ∗ , ⋯ , w M ∗ ) w=(w_0^*,w_1^*,\cdots,w_M^*) w=(w0∗,w1∗,⋯,wM∗)
对 w w w求偏导令其为零,得到一系列方程,求解可以用梯度下降或者矩阵分解。
求解线性方程组 A x = b Ax=b Ax=b,可以表示为 x = A / b x=A/b x=A/b,问题展开之后可以涉及到矩阵分解。
TODO: 这个例子展开一下
正则化和交叉验证都是模型选择的方法
正则化项可以取不同的形式
从贝叶斯估计角度看,正则化项对应于模型的先验概率,可以假设复杂的模型有较小的先验概率,简单的模型有较大的先验概率。
另一种常用的模型选择方法是交叉验证
关于交叉验证,这里补充一点。
数据集的划分这个问题,书中有提到数据充足的情况下,将数据划分为三个部分,训练集,验证集和测试集。看到这里,不知道大家会不会有一样的问题:验证集和测试集有什么区别?
注意这里,在算法学习的过程中,测试集可能是固定的,但是验证集和训练集可能是变化的。比如K折交叉验证的情况下,分成K折之后,其中的K-1折作为训练集,1折作为验证集,这样针对每一个模型操作K次,计算平均测试误差,最后选择平均测试误差最小的模型。这个过程中用来验证模型效果的那一折数据就是验证集。交叉验证,就是这样一个使用验证集测试模型好坏的过程。他允许我们在模型选择的过程中,使用一部分数据(验证集)“偷窥”一下模型的效果。
现实中采用最多的方法是通过测试误差来评价学习方法的泛化能力
统计学习理论试图从理论上对学习方法的泛化能力进行分析
学习方法的泛化能力往往是通过研究泛化误差的概率上界进行的, 简称为泛化误差上界(generalization error bound)
这本书里面讨论的不多,在CH08里面有讨论提升方法的误差分析, 提到 A d a B o o s t AdaBoost AdaBoost不需要知道下界 γ \gamma γ。在CH02中讨论算法的收敛性的时候有提到误分类次数的上界.
泛化误差 R e x p ( f ^ ) = E p [ L ( Y , f ^ ( X ) ) ] = ∫ X × Y L ( y , f ^ ( x ) ) P ( x , y ) d x d y R_{exp}(\hat f)=E_p[L(Y, \hat f(X))]=\int_{\mathcal X\times\mathcal Y}L(y,\hat f(x))P(x,y)\, {\rm d}x{\rm d}y Rexp(f^)=Ep[L(Y,f^(X))]=∫X×YL(y,f^(x))P(x,y)dxdy
期望风险 R e x p ( f ) = E p [ L ( Y , f ( X ) ) ] = ∫ X × Y L ( y , f ( x ) ) P ( x , y ) d x d y R_{exp}(f)=E_p[L(Y, f(X))]=\int_{\mathcal X\times\mathcal Y}L(y,f(x))P(x,y)\, {\rm d}x{\rm d}y Rexp(f)=Ep[L(Y,f(X))]=∫X×YL(y,f(x))P(x,y)dxdy
注意泛化误差的定义,书中有说事实上,泛化误差就是所学习到的模型的期望风险
监督学习方法可分为生成方法(generative approach)与判别方法(discriminative approach)
generative approach
联合概率分布 P ( X , Y ) P(X,Y) P(X,Y)——>条件概率分布 P ( Y ∣ X ) P(Y|X) P(Y∣X)
P ( Y ∣ X ) = P ( X , Y ) P ( X ) P(Y|X)=\frac {P(X,Y)}{P(X)} P(Y∣X)=P(X)P(X,Y)
典型模型:朴素贝叶斯、隐马尔科夫
discriminative approach
典型模型:k 近邻法、感知机、决策树、LR、最大熵模型、支持向量机、提升方法、条件随机场等
Classification, Tagging, Regression
参考文献都是大部头,ESL,PRML在列
ESL:7.10.1:K-Forld Cross Validation ↩︎