机器学习:Chapter4-5


Chapter 4: 决策树(decision tree)

  • what is decision tree?

基本流程

遵循分而治之(divide-and-conquer)策略,决策树学习基本算法如下:

  • <决策树学习基本算法.jpg>
  • 算法line 8th, 如何选择最优划分属性?

划分选择

应使决策树的分支节点所包含的样本尽可能属于同一类别, 即节点的"纯度(purity)"越高越好.

  • 信息增益(information gain)
    信息熵(information entropy)是度量样本集合纯度的常用指标.


    算法line 8th选择属性 .
    信息增益对可取值数目较多的属性有所偏好.

  • 增益率(gain ratio)

    其中,
    增益率准则对可取值数目较少的属性有所偏好.

  • C4.5算法使用启发式: 先从后选划分属性中找出信息增益高于平均水平的属性, 再从中选择增益率最高的.
  • 基尼指数(gini index)
    数据集D的纯度使用基尼值测量: .
    Gini(D)反映了从数据集D中随机抽取两个样本, 其类别标记不一致的概率, 故Gini(D)越小, 数据集D的纯度越高.
    属性a的基尼指数定义为: .
    选择划分后基尼指数最小的属性作为最优划分属性: .
  • Cart决策树使用"基尼指数"选择划分属性.

剪枝(pruning)处理

剪枝是决策树学习算法中解决"过拟合"的主要手段, 基本策略如下:

  • prepruning, 预剪枝: 在决策树生成过程中, 对每个节点在划分前先进行估计, 若当前节点的划分不能带来决策树泛化性能提升, 则停止划分并将当前节点标记为叶节点.
    • 降低了过拟合的风险, 减少了决策树的训练时间开销和测试时间开销.
    • 带来了欠拟合的风险.
  • postpruning, 后剪枝: 先从训练集生成一棵完整的决策树, 然后自底向上地对非叶节点进行考察, 若将该节点对应的子树替换为叶节点能带来决策树泛化性能提升, 则将该子树替换为叶节点.
    • 欠拟合风险小, 泛化性能往往由于预剪枝决策树.
    • 训练时间开销比未剪枝决策树和预剪枝决策树都要大得多.

连续与缺失值

  • 连续
    在决策树学习中, 若遇到连续属性值, 可通过二分法(bi-partition)进行处理, 即将出现的连续属性的取值从小到大进行排序, 基于某个划分点t将D分为子集(包含属性a上取值大于t的样本)和(包含属性a上取值不大于t的样本).
    如何选择最优的划分点:
    其中 Gain(D,a,t)是样本集D基于划分点t二分后的信息增益, 选择使 Gain(D,a,t)最大化的划分点.
    note: 若当前节点划分属性为连续属性, 该属性还可作为其后代节点的划分属性.

  • 缺失值

  • Q: 如何在属性值缺失的情况下进行划分属性选择?
    给定划分属性, 若样本在该属性上的值确实, 如何对样本进行划分?

计算信息增益时带入不缺失该属性的样本所占的比例. 具体推广后的公式此处略.


多变量决策树(multivariate decision tree)

若把每个属性视为坐标空间中的一个坐标轴, 则d个属性描述的样本对应了d维空间中的一个数据点, 对样本分类意味着这个坐标空间中寻找不同类样本之间的分类边界, 决策树所形成的的分类边界具有特点: 轴平行(axis-parallel), 即分类边界由若干个与坐标轴平衡的分段组成.
多变量决策树: 能实现斜划分或者更复杂划分的决策树. (需要对属性的线性组合进行分析.)


Chapter 5: 神经网络(neural networks)

神经元(neuron)模型

神经元是神经网络中最基本的单元. 神经元接收到来自n个其他神经元传递过来的输入信号, 这些输入信号通过带权重的连接进行传递, 神经元接收到的总输入值与该神经元的阈值(threshold)进行比较, 然后通过"激活函数(activation function)"处理以产生神经元的输出.理想的激活函数是阶跃函数, 但其不连续、不光滑, 常用Sigmoid函数(亦称挤压函数, squashing function)作为激活函数.

许多个这样的神经元按一定的层次结构连接起来, 就得到了一个神经网络. 可将神经网络视为包含了许多参数的数学模型, 这个模型是若干个数学函数(如 )相互嵌套而成.


感知机与多层网络

perceptron, 感知机: 由两层神经元组成, 输入层接受外界输入信号后传递给输出层. 输出层是M-P神经元, 亦称阈值逻辑单元(threshold logic unit). 感知机能容易地实现逻辑与、或、非运算. 神经网络的学习过程就是对神经元的连接权重和每个功能神经元的阈值进行学习. 将阈值看成固定输入为-1.0的哑结点(dummy node)所对应的权重wn+1<>\sub, 则将参数都统一为权重的学习. 对训练样例(x, y), 若当前感知机的输出为y', 则感知机权重调整规则如下:
, 其中, 其中称为学习率(learning rate).

感知机只能解决线性可分问题. 要解决非线性可分问题, 需使用多层功能神经元.(两层网络->单隐层网络) 输出层与输入层之间的神经元, 被称为隐层或隐含层(hidden layer), 隐含层和输出层都是具有激活函数的功能神经元(functional neural).
multi-layer feedforward neural networks, 多层前馈神经网络: 每层神经元与下一层神经元全互连, 神经元之间不存在同层、跨层连接.


误差逆传播算法

error BackPropagation, 误差逆传播算法(BP): 训练多层网络的常用算法. 主要目标是最小化训练集上的累积误差

  • 标准BP: 每次仅针对一个训练样例更新连接权和阈值, 参数更新频繁, 针对不同样例的更新可能出现"抵消".
  • 累积BP(accumulated error backpropagation): 直接针对累积误差最小化, 读取完整个训练集D后才对参数进行更新, 参数更新频率低.

训练集
神经网络拥有d个神经元、l个输出神经元、q个隐层神经元.
输出层第j个神经元的阈值用θ_j表示, 隐层第h个神经元的阈值用λ_h表示.
输入层第i个神经元与隐层第h个神经元之间的连接权为v_ih, 隐层第h个神经元与输出层第j个神经元之间的连接权为w_hj.
隐层第h个神经元收到的输入为 , 输出层第j个神经元接受到的输入为 , 其中b_h为隐层第h个神经元的输出.
假设隐层和输出神经元都使用的Sigmoid函数.

式(5.1):    
式(5.2):    
式(5.3):    
                     
式(5.4):    
式(5.5):    
式(5.6):    
式(5.7):    

# 标准BP算法
# input: 训练集D; 学习率η

在(0,1)范围内随机初始化网络中所有连接权和阈值
repeat
    for all (x_k,y_k) ∈ D do:
        根据当前参数和式(5.1)计算当前样本的输出 y'_k;
        根据式(5.2)计算输出层神经元的梯度项g_j;
        根据式(5.3)计算隐层神经元的梯度项e_h;
        根据式(5.4)~(5.7)更新连接圈w_hj、v_ih与阈值θ_j、λ_h .
    end for
until 达到停止条件

# output: 连接权与阈值确定的多层前馈神经网络

只需一个包含足够多神经元的隐层, 多层前馈网络就能以任意精度逼近任意复杂度的连续函数. 实际应用中, 经常使用"试错法(trial-by-error)"调整隐层神经元的个数.
缓解BP网络的过拟合:

  • early, stopping, 早停: 将数据集分成训练集和验证集, 验证集用来估计误差, 若训练集误差降低但验证集误差升高, 则停止训练, 返回具有最小验证集误差的连接权和阈值.
  • regularization, 正则化: 在误差目标函数中增加一个用于描述网络复杂度的部分, 对经验误差和网络复杂度进行折中.

全局最小与局部极小

神经网络的训练过程可看做参数(连接权和阈值)寻优过程, 即寻找一组最优参数使得误差最小. "最优"一般包括两种:

  • local minimum, 局部极小: 对w和θ, 若存在ϵ>0使得 , 都有成立, 则 为局部极小解.
  • global minimum, 全局最小: 若对参数空间中的任意都有成立, 则 为局部极小解.

局部极小解是参数空间中的某个点, 其邻域点的误差函数值均不小于该点的函数值; 全局最小解是指参数空间中所有点的误差函数值均不小于该点的误差函数值. 显然, 参数空间内梯度为零的点, 只要其误差函数值小于邻点的误差函数值, 就是局部极小点. 可能存在多个局部极小值, 但只会有一个全局最小值.
"基于梯度的搜索"是使用较为广泛的参数寻优方法. 但在存在多个局部极小的情况小, 不一定能找到全局最小, 如何跳出局部极小呢?

  • 以多组不同参数值初始化(从多个不同的初始点开始搜索)多个神经网络, 训练后取误差最小的解作为最终参数.
  • simulated annealing, 模拟退火技术: 在每一步都以一定的概率接受比当前解更差的结果, 有助于跳出局部极小. 每步迭代过程中, 接受"次优解"的概率随时间的推移而逐渐降低, 从而保证算法稳定.
  • 随机梯度下降: 标准梯度下降法精确计算梯度, 而随机梯度下降在计算梯度时加入了随机因素, 即便陷入局部极小, 计算出的梯度仍可能不为零, 有机会跳出局部极小继续搜索.
  • genetic algorithm, 遗传算法: 遗传算法详解 https://www.jianshu.com/p/ae5157c26af9 .
  • heuristic algorithm, 启发式: 一个基于直观或经验构造的算法, 在可接受的花费(计算时间和空间)下给出待解决组合优化问题的每一个实例的可行解, 该可行解与最优解的偏离程度一般不能预计.

其他常见神经网络

RBF网络

radial basis function network, 径向基函数网络: 一种单隐层前馈神经网络, 使用径向基函数作为隐层神经元激活函数, 输出层则是对隐层神经元输出的线性组合.
训练过程: 1. 通过随机采样或聚类等方式确定神经元中心ci; 2. 利用BP算法确定参数wi和βi .

ART网络

adaptive resonance theory network, 自适应谐振理论网络: 竞争型学习的重要代表, 网络由比较层、识别层、识别阈值、重置模块构成.

竞争型学习(competitive learning), 一种无监督学习策略, 网络的输出神经元相互竞争, 在每一时刻仅有一个竞争获胜的神经元被激活, 其他神经元的状态被抑制(胜者通吃原则, winner-take-all).

SOM网络

self-organizing map network, 自映射网络: 竞争型学习的代表之一, 将高维输入数据映射到低维空间, 同时保持输入数据在高维空间中的拓扑结构, 即将高维空间中相似的样本点映射到网络输出层中的邻近神经元.

训练过程: 接收到一个训练样本, 每个输出层神经元会计算该样本与自身携带的权向量之间的距离, 距离最近的神经元称为竞争获胜者, 称为最佳匹配单元(best matching unit). 最佳匹配单元及其临近神经元的权向量将被调整, 以使得这些权向量与当前输入样本的距离缩小. 这个过程不断迭代, 直至收敛.

级联相关网络

结构自适应网络: 一般神经网络模型假定网络结构是事先固定的, 训练目的是利用训练样本来确定合适的连接权、阈值等参数; 结构自适应网络则将网络结构也当做学习的目标之一, 希望在训练过程中找到最符合数据特定的网络结构.

cascade-correlation network, 级联相关网络: 结构自适应网络的重要代表. 无需设置网络层数、隐层神经元数据, 训练速度较快, 但数据较小时容易过拟合.

  • 级联: 指建立层次连接的层级结构. 训练开始时, 只有输入层和输出层, 处于最小拓扑结构; 随着训练的进行, 新的隐层神经元逐渐加入, 从而创建起层级结构.
  • 相关: 指通过最大化新神经元的输出与网络误差之间的相关性来训练相关的参数.

Elman网络

recurrent neural network, 递归神经网络: 不同于前馈神经网络, 网络中可以出现环形结构, 从而让一些神经元的输入反馈回来以作为输入信号. 结构与信息反馈, 使得网络在t时刻的输出不仅与t时刻的输入有关, 还与t-1时刻的网络状态有关, 从而能处理与时间有关的动态变化.
Elamn: 递归神经网络的代表之一, 结构与多层前馈网络相似, 但隐层神经元的输出会被反馈回来, 与下一时刻输入层神经元提供的信号一起, 作为隐层神经元在下一时刻的输入.

Boltzmann机

神经网络中有一类模型为网络状态定义一个"能量(energy)", 能量最小化时网络达到理想状态, 而网络的训练就是在最小化能量函数.
Boltzmann机: 一种基于能量的模型(energy-based model), 神经元分为显层和隐层——显层用于数据的输入输出, 隐层则是数据的内在表达. 神经元都是布尔型的, 状态1代表激活, 0代表抑制.训练过程将每个训练样本视为一个状态向量, 使其出现概率尽可能大.

  • 深度学习(deep learning): 可简单理解为很深层的神经网络. 对输入信号进行逐层加工, 把初始的、与输出目标联系不太密切的输入表示转化为与输出目标联系更密切的表示. 即通过多层处理, 逐渐将初始的低层特征表示转化为高层特征表示, 用简单模型完成复杂的分类等学习任务.
    详等后续.

你可能感兴趣的:(机器学习:Chapter4-5)