花书第五章笔记

[TOC]

第五章 机器学习基础

机器学习基础 掌握机器学习的基本知识和基础原理

  • 机器学习基础[p87-p142]

5.1 学习算法

  • 机器学习算法:Mitchell (1997) 提供了一个简洁的定义:“对于某类任务 和性能度量,一个计算机程序被认为可以从经验中学习是指,通过经验 改进后,它在任务上由性能度量衡量的性能有所提升。”

5.1.1 任务T

  • 任务定义为机器学习系统应该如何处理样本(example)。样本是指从某些希望机器学习系统处理的对象或事件中收集到的已经量化的特征(feature)的集合。通常将样本表示为。

常见的机器学习任务列举如下:

  • 分类:,计算机程序需要指定某些输入属于类中的哪一类。函数表示:
  • 输入缺失分类:当输入向量的每个度量不被保证的时候,学习算法必须学习一组函数.有效地定义这样一个大集合函数的方法是学习所有相关变量的概率分布,然后通过边缘化缺失变量来解决分类任务。
  • 回归:计算机程序需要对给定输入预测数值,预测数值是连续的,而分类任务的类别值是离散的。函数表示:
  • 转录:,机器学习系统观测一些相对非结构化表示的数据,并转录信息为离散的文本形式。如光学字符识别(OCR-Optical Character Recognition)和语音识别等。
  • 机器翻译:在机器翻译任务中,输入是一种语言的符号序列,计算机程序必须将其转化成另一种语言的符号序列。
  • 结构化输出:结构化输出任务的输出是向量或者其他包含多个值的数据结构,并且构成输出的这些不同元素间具有重要关系。如语法分析,图像语义分割,图像描述。
  • 异常检测:计算机程序在一组事件或对象中筛选,并标记不正常或非典型的个体。如信用卡欺诈。
  • 合成和采样:机器学习程序生成一些和训练数据相似的新样本。如视频游戏场景建模、艺术创作。
  • 缺失值填补:在这类任务中,机器学习算法给定一个新样, 中某些元素缺失。算法必须填补这些缺失值。如图像补全。
  • 去噪:机器学习算法的输入是,干净样本 经过未知损坏过程后得到的损坏样本。算法根据损坏后的样本预测干净的样本,或者更一般地预测条件概率分布。
  • 密度估计概率质量函数估计:在密度估计问题,机器学习算法学习函数,其中可以解释成样本采样空间的概率密度函数(如果 是连续的)或者概率质量函数(如果是离散的)。

5.1.2 性能度量P

  • 准确率(accuracy):指该模型输出正确结果的样本比率。常用于分类、缺失输入分类和转录任务。类似的指标还有错误率(error rate)。
  • 测试集(test set):未观测的数据,不参与模型训练,用于评价模型性能。

5.1.3 经验E

机器学习算法可以大致分类为无监督(unsupervised)算法和监督(supervised)算法。

  • 无监督学习算法(unsupervised learningalgorithm)训练含有很多特征的数据集,然后学习出这个数据集上有用的结构性质。没有对应的label标签。

  • 监督学习算法(supervised learning algorithm)训练含有很多特征的数据集,不过数据集中的样本都有一个标签(label)或目标(target)。

  • 概率链式法则

  • 全概率公式

  • 设计矩阵(design matrix):表示数据集的常用方法。设计矩阵的每一行包含
    一个不同的样本。每一列对应不同的特征。

  • 5.1.4 示例:线性回归

  • 均方误差(mean squared error):

5.2 容量、过拟合和欠拟合

  • 泛化(generalization):在先前未观测到的输入上表现良好的能力。

  • 训练误差(training error):训练模型时在训练集上的误差

  • 泛化误差(generalization error)(也被称为测试误差(test error)):在未知的测试集上的误差。

  • 独立同分布假设(i.i.d.assumption):该假设是说,每个数据集中的样本都是彼此相互独立的(independent),并且训练集和测试集是同分布的(identically distributed),采样自相同的分布。

决定机器学习算法效果是否好的因素:

  1. 降低训练误差
  2. 缩小训练误差和测试误差的差距。
  • 欠拟合(underfitting):模型不能在训练集上获得足够低的误差。

  • 过拟合(overfitting):训练误差和和测试误差之间的差距太大。

  • 模型的容量(capacity):指其拟合各种函数的能力。

  • 奥卡姆剃刀(Occam’s razor):在同样能够解释已知观测现象的假设中,我们
    应该挑选“最简单”的那一个。

  • Vapnik-Chervonenkis 维度(Vapnik-Chervonenkis dimension, VC)。VC维度量二元分类器的容量。

  • 非参数(non-parametric)模型,如最近邻回归(nearest neighbor regression)。

  • 贝叶斯误差(Bayes error):从预先知道的真实分布 预测而出现的误差。

5.2.1 没有免费午餐定理

  • 机器学习的没有免费午餐定理(no free
    lunch theorem),在所有可能的数据生成分布上平均之后,每一个分类算法在未事先观测的点上都有相同的错误率。换言之,在某种意义上,没有一个机器学习算法总是比其他的要好。我们能够设想的最先进的算法和简单地将
    所有点归为同一类的简单算法有着相同的平均性能(在所有可能的任务上)。

5.2.2 正则化

  • 权重衰减(weight decay):控制偏好权重程度。

  • 正则化(regularization):修改学习算法,使其降低泛化误差而非训练误差。

5.3 超参数和验证集

  • 超参数(hyper-parameter):不用学习的参数,因为它难优化,不适合在训练集上学习。

  • 验证集(validation set):用于挑选超参数的数据子集,由原始训练集划分出的一部分。

5.3.1 交叉验证

  • -折交叉验证过程:将数据集分成个不重合的子集。测试误差可以估计为次计算后的平均测试误差。在第 次测试时,数据的第个子集用于测试集,其他的数据用于训练集。

5.4 估计、偏差和方差

5.4.1 点估计

  • 点估计(point estimator)或统计量(statistics)是这些数据的任意函数:

5.4.2 偏差

  • 如果,那么估计量被称为是无偏
    (unbiased);如果,那么估计量 被称为是渐近无偏(asymptotically unbiased)。

5.4.3 方差和标准差

  • 方差(variance):
  • 标准差(standard error),记作。

5.4.4 权衡偏差和方差以最小化均方误差

  • 估计的均方误差(mean squared error,MSE):

5.4.5 一致性

  • 一致性(consistency):

5.5 最大似然估计

  • 最大似然估计

5.5.1 条件对数似然和均方误差

  • 条件对数似然

5.6 贝叶斯统计

  • 贝叶斯统计(Bayesian statistics):在做预测时会考虑所有可能的。
  • 先验概率分布(prior probability distribution):将的已知知识表示为。

5.6.1 最大后验(MAP) 估计

  • 最大后验(Maximum A Posteriori, MAP)点估计:MAP估计选择后验概率最大的点(或在 是连续值的更常见情况下,概率密度最大的点):

5.7 监督学习算法

  • 监督学习算法是给定一组输入和输出的训练集,学习如何关联输入和输出。

5.7.1 概率监督学习

  • 线性回归:

  • 逻辑回归(logistic regression):

5.7.2 支持向量机

  • 支持向量机(support vector machine,SVM)是监督学习中最有影响力的方法之一。基于线性函数 的,用于分类,结果为正属于正类;结果为负属于负类。

  • 核技巧(kernel trick):

  • 核函数(kernel function)的函数。

    • 高斯核(Gaussian kernel):也称为径向基函数(radial basis func-
      tion, RBF)核,

5.7.3 其他简单的监督学习算法

  • 最近邻回归
  • k-最近邻
  • 决策树(decision tree)及其变种是另一类将输入空间分成不同的区域,每个区域有独立参数的算法。

5.8 无监督学习算法

  • 无监督学习的大多数尝试是指从不需要人为注释的样本的分布中抽取信息。

5.8.1 主成分分析

  • 参考第2.12 节

5.8.2 k-均值聚类

  • k-均值聚类算法将训练集分成k个靠近彼此的不同样本聚类。

5.9 随机梯度下降

  • 随机梯度下降(stochastic gradient descent, SGD):是梯度下降法的扩展,每次从训练集中均匀抽出一小批量(minibatch)样本,然后去计算梯度。

5.10 构建机器学习算法

  • 几乎所有的深度学习算法都可以被描述为一个相当简单的配方:特定的数据集、代价函数、优化过程和模型。

5.11 促使深度学习发展的挑战

5.11.1 维数灾难

  • 当数据的维数很高时,很多机器学习问题变得相当困难。这种现象被称为维数灾难(curse of dimensionality)。

5.11.2 局部不变性和平滑正则化

  • 平滑先验(smoothness prior),或局部不变性先验(local constancy prior)。这个先验表明我们学习的函数不应在小区域内发生很大的变化。

5.11.3 流形学习

  • 流形(manifold):考虑少数嵌入在高维空间中的自由度或维数就能很好地近似。每一维都对应着局部的变化方向。

你可能感兴趣的:(花书第五章笔记)