第三章 线性模型--机器学习(周志华)参考答案

原文的链接

机器学习(周志华) 参考答案 第三章 线性模型

机器学习(周志华西瓜书) 参考答案 总目录

  • http://blog.csdn.net/icefire_tyh/article/details/52064910

1.试分析在什么情况下,在以下式子中不比考虑偏置项b。

线性模型 y=wtx+b ,两个实例相减得到 yiy0=wt(xix0) ,以此消除了 b 。所以可以对训练集每个样本都减去第一个样本,然后对新的样本做线性回归,只需要用模型 y=wtx


2.试证明,对于参数w,对率回归(logistics回归)的目标函数(式1)是非凸的,但其对数似然函数(式2)是凸的。

如果一个多元函数是凸的,那么它的Hessian矩阵是半正定的。

y=11+e(wTx+b)
dydw=xe(wTx+b)(1+e(wTx+b))2=x(yy2)
ddwT(dydw)=x(12y)(dydw)T=xxTy(y1)(12y)

xxT 合同于单位矩阵,所以 xxT 是半正定矩阵
y 的值域为 (0,1) ,当 y(0.5,1) 时, y(y1)(12y)<0 ,导致 ddwT(dydw) 半负定,所以 y=11+e(wTx+b) 是非凸的。

l(β)=mi=1(yiβTxi+ln(1+eβTx))
ddβT(dldβ)=xxTp1(x;β)(1p1(x;β))

显然概率 p1(0,1) ,则 p1(x;β)(1p1(x;β))0 ,所以 l(β)=mi=1(yiβTxi+ln(1+eβTx)) 是凸函数。


3.编程实现对率回归,并给出西瓜数据集3.0α上的结果

  • http://blog.csdn.net/icefire_tyh/article/details/52068844

4.选择两个UCI数据集,比较10折交叉验证法和留一法所估计出的对率回归的错误率。

  • http://blog.csdn.net/icefire_tyh/article/details/52068900

5.编程实现线性判别分析,并给出西瓜数据集3.0α上的结果。

  • http://blog.csdn.net/icefire_tyh/article/details/52069003

6. LDA仅在线性可分数据上能获得理想结果,试设计一个改进方法,使其能较好地用于非线性可分数据。

在当前维度线性不可分,可以使用适当的映射方法,使其在更高一维上可分,典型的方法有 KLDA ,可以很好的划分数据。


7.令码长为9,类别数为4,试给出海明距离意义下理论最优的EOOC二元码并证明之。

对于 ECOC 二元码,当码长为 2n 时,至少可以使 2n 个类别达到最优间隔,他们的海明距离为 2(n1) 。比如长度为 8 时,可以的序列为

               
1 1 1 1 -1 -1 -1 -1
1 1 -1 -1 1 1 -1 -1
1 -1 1 -1 1 -1 1 -1
-1 -1 -1 -1 1 1 1 1
-1 -1 1 1 -1 -1 1 1
-1 1 -1 1 -1 1 -1 1

其中 4,5,6 行是对 1,2,3 行的取反。若分类数为 4 ,一共可能的分类器共有 242 种(排除了全 1 和全 0 ),在码长为 8 的最优分类器后添加一列没有出现过的分类器,就是码长为 9 的最优分类器。


8.EOOC编码能起到理想纠错作用的重要条件是:在每一位编码上出错的概率相当且独立。试析多分类任务经ECOC编码后产生的二类分类器满足该条件的可能性及由此产生的影响。

理论上的 ECOC 码能理想纠错的重要条件是每个码位出错的概率相当,因为如果某个码位的错误率很高,会导致这位始终保持相同的结果,不再有分类作用,这就相当于全 0 或者全 1 的分类器,这点和NFL的前提很像。但由于事实的样本并不一定满足这些条件,所以书中提到了有多种问题依赖的 ECOC 被提出。


9.使用OvR和MvM将多分类任务分解为二分类任务求解时,试述为何无需专门针对类别不平衡性进行处理。

书中提到,对于 OvR MvM 来说,由于对每个类进行了相同的处理,其拆解出的二分类任务中类别不平衡的影响会相互抵消,因此通常不需要专门处理。以 ECOC 编码为例,每个生成的二分类器会将所有样本分成较为均衡的二类,使类别不平衡的影响减小。当然拆解后仍然可能出现明显的类别不平衡现象,比如一个超级大类和一群小类。


10.试推出多分类代价敏感学习(仅考虑基于类别的错误分类代价)使用“再缩放”能获得理论最优解的条件。

题目提到仅考虑类别分类的误分类代价,那么就默认正确分类的代价为0。
于是得到分类表,(假设为3类)

0 c12 c13
c21 0 c23
c31 c32 0

对于二分类而言,将样本为正例的后验概率设为是p,那么预测为正的代价是 (1p)c12
预测为负的代价是 pc21 。当 (1p)c12pc21 样本会被预测成正例,因为他的代价更小。当不等式取等号时,得到了最优划分,这个阀值 pr=c12c12+c21 ,这表示正例与反例的划分比例应该是初始的 c12c21 倍。假设分类器预设的阀值是 po ,不考虑代价敏感时,当 y1y>po1po 时取正例。当考虑代价敏感,则应该是 y1y>1prprpo1po=c21c12po1po
推广到对于多分类,任意两类的最优再缩放系数 tij=cij/cji ,然而所有类别的最优缩放系数并不一定能同时满足。当代价表满足下面条件时,能通过再缩放得到最优解。
tij=wi/wj ,则 wi/wj=cij/cji 对所有 i,j 成立,假设有 k 类,共 C2k 个等式,此时代价表中 k(k1) 个数,最少只要知道 2(k1) 就能推出整张表。

你可能感兴趣的:(第三章 线性模型--机器学习(周志华)参考答案)