《机器学习》周志华(西瓜书)学习笔记 第十一章 特征选择与稀疏学习

机器学习

总目录

第十一章 特征选择与稀疏学习

11.1 子集搜索与评价

给定属性集,其中有些属性可能很关键、很有用,另一些 属性则可能没什么用.我们将属性称为"特征" (feature):

  • 对当前学习任务有 用的属性称为"相关特征" (relevant feature)、
  • 没什么用的属性称为"无关特征" (irrelevant feature).

从给定的特征集合中选择出相关特征子集的过程,称为"特征选择" (feature selection).

特征选择的原因:

  1. 减轻由于属性过多造成的维数灾难;
  2. 去除不相关特征降低学习任务的难度

特征选择中所谓的"无关特征"是指与当前学习任务无关.有一类特征称为"冗余特征" (redundant feature)。

它们所包含的信 息能从其他特征中推演出来.例如:

考虑立方体对象,若己有特征"底面长" “底面宽”,则"底面积"是冗余特征,因为它能从"底面长"与"底固宽" 得到.冗余特征在很多时候不起作用,去除它们会减轻学习过程的负担.

欲从初始的特征集合中选取一个包含了所有重要信息的特征子集,若没有任何领域知识作为先验假设,那就只好遍历所有可能的子集了;然而这在计算上却是不可行的?因为这样做会遭遇组合爆炸?特征个数稍多就无法进行.可行的做法是产生一个"候选子集",评价出它的好坏,基于评价结果产生下一个 候选子集,再对其进行评价,……这个过程持续进行下去,直至无法找到更好的 候选子集为止.显然,这里涉及两个关键环节:

  • 如何根据评价结果获取下一个候选特征子集?
  • 如何评价候选特征子集的好坏?

子集搜索

  1. 前向搜索:先确定一个子集,依次增加特征,构成候选子集,选出最优,继续指导最优的特征子集步入上一个子集,将其作为特征选择的结果。
  2. 后向搜索:先将整个特征集合作为候选子集,依次去除不相关特征;
  3. 双向搜索:前向和后向结合;

子集评价

给定数据集 D D D, 假定 D D D 中第 i 类样本所占的比例为 p i ( i = 1 , 2 , . . . , ∣ Y ∣ ) p_i (i = 1, 2,...,|\mathcal{Y}|) pi(i=12...Y). 为便于讨论,假定样本属性均为离散型.对属性子集 A A A, 假定根据其取值将 D D D 分成了 V V V 个子集 D 1 , D 2 , . . . , D V {D^1, D^2,..., D^V} D1,D2,...,DV, 每个子集中的样本在 A A A 上取值相同,于是我们可计算属性子集 A A A 的信息增益
G a i n ( A ) = E n t ( D ) − ∑ v = 1 V ∣ D v ∣ ∣ D ∣ E n t ( D v ) Gain(A)=Ent(D)-\sum_{v=1}^V\frac{|D^v|}{|D|}Ent(D^v) Gain(A)=Ent(D)v=1VDDvEnt(Dv)

其中信息熵定义为:
E n t ( D ) = − ∑ i = 1 ∣ Y ∣ p k log ⁡ 2 p k Ent(D)=-\sum_{i=1}^{\mathcal{|Y|}}p_k\log_2p_k Ent(D)=i=1Ypklog2pk

11.2 过滤式选择

过滤式方法先对数据集进行特征选择,然后再训练学习器,特征选择过程 与后续学习器无关.这相当于先用特征选择过程对初始特征进行"过滤",再 用过滤后的特征来训练模型.

Relief算法:二分类问题

Relief (Relevant Features) [Kira and Rendell, 1992] 是一种著名的过滤式 特征选择方法,该方法设计了一个"相关统计量"来度量特征的重要性.该统计量是一个向量,其每个分量分别对应于一个初始特征,而特征子集的重要性 则是由子集中每个特征所对应的相关统计量分量之和来决定.于是,最终只需 指定一个阔值 T, 然后选择比 T 大的相关统计量分量所对应的特征即可;也可指 定欲选取的特征个数 k, 然后选择相关统计量分量最大的 k 个特征.

对于数据集中的每个样例 x i x_i xi,首先找出与 x i x_i xi同类别的最近邻与不同类别的最近邻,分别称为猜中近邻(near-hit)与猜错近邻(near-miss),接着便可以分别计算出相关统计量中的每个分量。对于j分量:

《机器学习》周志华(西瓜书)学习笔记 第十一章 特征选择与稀疏学习_第1张图片

从式(11.3)可看出:

x i x_i xi 与其猜中近邻 x i , n h x_{i,nh} xi,nh 在属性 j 上的距离小于 x i x_i xi 与 其猜错近邻 x i , n m x_{i,nm} xi,nm 的距离7,则说明属性 j j j 对区分同类与异类样本是有益的,于是增大属性 j j j 所对应的统计量分量;反之,若 x i x_i xi与其猜中近邻 x i , n h x_{i,nh} xi,nh在属性 j j j 上的 距离大于 x i x_i xi与其猜错近邻 x i , n m x_{i,nm} xi,nm 的距离,则说明属性 j j j 起负面作用,于是减小 属性 j j j所对应的统计量分量.最后,对基于不同样本得到的估计结果进行平均?,就得到各属性的相关统计量分量,分量值越大,则对应属性的分类能力就越强.

Relief-F:多分类问题

《机器学习》周志华(西瓜书)学习笔记 第十一章 特征选择与稀疏学习_第2张图片

11.3 包裹式选择

与过滤式特征选择不考虑后续学习器不间,包裹式特征选择直接把最终将要使用的学习器的性能作为特征于集的评价准则.换言之,包裹式特征选择的目的就是为给定学习器选择最有利于其性能、 "量身走做"的特征子集.

LVW包裹式算法:拉斯维加斯框架下采用随机策略进行子集搜索,以最终很累起的误差为特征自己的评价准则;

《机器学习》周志华(西瓜书)学习笔记 第十一章 特征选择与稀疏学习_第3张图片

11.4 嵌入式选择与 L 1 正 则 化 L_1正则化 L1

在过滤式和包裹式特征选择方法中,特征选择过程与学习器训练过程有明显的分别;与此不同,嵌入式特征选择是将特征选择过程与学习器训练过程融为一体,两者在同一个优化过程中完成,即在学习器训练过程中自动地进行了特征选择.

11.5 稀疏表示与字典学习

稀疏性表现:

  1. 数据集D矩阵中,去除很多表示特征的列;
  2. 数据集D矩阵中存在很多0元素,且没有出现在同一列中;

当样本数据是一个稀疏矩阵时,对学习任务来说会有不少的好处,例如很多问题变得线性可分,储存更为高效等。这便是稀疏表示与字典学习的基本出发点。

稀疏编码(sparse coding)/字典学习(dictionary learning):对于一个给定的稠密矩阵,若能通过某种方法找到其合适的稀疏(恰当稀疏)表示,则可以使得学习任务更加简单高效.

给定一个数据集,字典学习/稀疏编码指的便是通过一个字典将原数据转化为稀疏表示,因此最终的目标就是求得字典矩阵B及稀疏表示α,受LASSO的启发,使用变量交替优化的策略能较好地求解。

11.6 压缩感知

通过欠采样信息来恢复全部信息。在实际问题中,为了方便传输和存储,我们一般将数字信息进行压缩,这样就有可能损失部分信息,如何根据已有的信息来重构出全部信号,这便是压缩感知的来历,压缩感知的前提是已知的信息具有稀疏表示。

压缩感知

感知测量:对原始信号进行处理以获得稀疏表示;Eg:傅里叶变换、小波变换、字典学习、稀疏编码等;
重构恢复:基于稀疏性从少年的观测中恢复原信号(压缩感知的精髓)

你可能感兴趣的:(机器学习,西瓜书学习笔记,机器学习,学习笔记,特征选择,稀疏学习)