【读书笔记】周志华 机器学习 第三章 线性模型

第三章 线性模型

  • 1 基本形式
  • 2 线性回归
  • 3 对数几率回归
  • 4 多分类学习
    • 4.1 OvO和OvR
    • 4.2 MvM和ECOC
  • 5 类别不平衡问题
  • 6 参考文献

1 基本形式

f ( x ) = w 1 x 1 + w 2 x 2 + . . . + w d x d + b = w T x + b f({\boldsymbol x}) = w_1x_1 + w_2x_2 + ... + w_dx_d + b = {\boldsymbol w}^T{\boldsymbol x} + b f(x)=w1x1+w2x2+...+wdxd+b=wTx+b
线性模式有很好的解释性,直观的表达了各个特征的重要性。

2 线性回归

通过最小化均方误差来求解参数 w {\boldsymbol w} w b b b
y y y变形可以求解非线性模型,如 l n y = w T x + b lny = {\boldsymbol w}^T{\boldsymbol x} + b lny=wTx+b

3 对数几率回归

对于分类问题,最好将输出 y y y约束在0-1之间,可以使用sigmoid函数进行约束: y = 1 1 + e ( − w T x + b ) y = \frac{1}{1 + e^(-{\boldsymbol w}^T{\boldsymbol x} + b)} y=1+e(wTx+b)1,此时可认为输出y是输入数据x为正例的概率。通过极大似然估计求解参数。

4 多分类学习

4.1 OvO和OvR

OvO即一对一。每次选择两类数据训练出一个分类器,对N个类别则可以训练出N(N-1)/2个分类器。N(N-1)/2个分类器对新数据进行分类会得到N(N-1)/2个结果,根据多数票决原则决定新数据的类别。
OvR即一对其余。每次选择一类数据作为正例,剩下的N-1类数据作为负例,训练出一个分类器。N个类别可以训练出N个分类器。N个分类器对新数据进行分类会得到N个结果,看哪一个分类器的分类结果为正
【读书笔记】周志华 机器学习 第三章 线性模型_第1张图片

4.2 MvM和ECOC

MvM是多对多。一种常用的MvM技术是纠错输出码ECOC。每次选择若干类数据作为正例,若干其他类作为反例,训练分类器并进行编码。以上图OvR为例,现在训练得到四个分类器, C 3 C_3 C3类的编码为0010,新数据经过这四个分类器之后的编码若为0100,则是第二类;若为0010,则为第三类;若为0110,则检测出某个分类器是错的。

5 类别不平衡问题

类别不平衡问题指的是当样本中正例负例的数量相差较多时,分类器在训练时会更加看重数量多的那一类。这显然是不公平的,不能说因为他们人多就看重他们,我们人少就看轻我们,大家都是平等的。
当类别不平衡时,可以通过对数量多对类别欠采样,减少其数量;可以通过对数量少的类别进行过采样,增加其数量;还可以通过阈值转移,让训练好的不公平的分类器恢复公平。

6 参考文献

周志华 机器学习 清华大学出版社
谢文睿、秦州 机器学习公式详解 人民邮电出版社
部分图片源自网络,如有侵权联系删除

你可能感兴趣的:(机器学习,人工智能)