李航统计学习方法第一章知识点

李航统计学习方法第一章内容梳理

  1. 得到一个有限的训练数据集合,包括样本特征的抽取;
  2. 确定包含所有可能的模型的假设空间(即学习模型的集合),对应判别模型和生成模型的训练中,就是建立目标模型的数学公式描述
  3. 确定模型选择的准则,即学习的策略
  4. 实现求解最优模型的算法,即学习的算法,这块常常是学习策略的具体数学化表示,算法作为策略实现的手段
  5. 通过学习方法选择最优模型,这部分又可以分为直接求出解析最优解、和逐步迭代求每轮的局部最优解从而逼近全局最优解(例如SGD)
  6. 利用学习的最优模型对新数据进行预测或分析

1、统计学习是什么?
特点:以计算机及网络为平台;以数据为研究对象,他从数据出发,提取数据的特征,抽象出数据的模型,又回到对数据的分析与预测中去。数据可以是多样的,包括存在于计算机网络上的各种数字、文字、图像、视音频等;目的是对数据进行预测与分析,特别是对未知的数据进行预测分析;以方法为中心,统计学习方法构建模型并应用模型进行预测分析;是概率论、统计学、信息论等多领域的交叉学科。
重要性是什么?
2、统计学习分类
基本分类:监督学习、无监督学习、强化学习、半监督学习和主动学习。
监督学习:
标注数据表示输入输出之间的对应关系,预测模型给定的输入产生相应的输出;监督学习的本质是,学习输入到输出之间的映射的统计规律。
利用训练数据集学习一个模型,再用模型对测试样本集进行预测得到预测值。由于训练数据集往往是人工给出的,也就是y,所以称为监督学习。
当一个孩子逐渐认识事物的时候,父母给他一些苹果和橘子(目标值y),并且告诉他苹果是什么样的,有哪儿些特征(特征值x),橘子是什么样的,有哪儿些特征(特征值)。经过父母的不断介绍,这个孩子已经知道苹果和橘子的区别,如果孩子在看到苹果和橘子的时候给出错误的判断,父母就会指出错误的原因(人工干预),经过不断地学习,再见到苹果和橘子的时候,孩子立即就可以做出正确的判断
在学习过程中,不仅提供事物的具体特征,同时也提供每个事物的名称。
也可以这样理解:监督学习是从给定的训练数据集中“学习”出一个函数,当新的数据到来时,可以根据这个函数预测结果。监督学习的训练集要求包括输入和输出,即特征和目标。训练集中的目标是由人类事先进行标注的。

分类问题:
监督学习从数据中学习一个分类模型或分类决策模型,称为分类器。分类器对新的输入进行输出的预测,称为分类。
学习和分类两个过程。
评价分类器性能指标一般是分类准确率:分类器正确分类的样本数与总样本数之比。
二类分类问题评价指标
精确率:针对预测结果而言,表示的是预测为正的样本中有多少是真正的正样本。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP)。
召回率:针对原本的样本而言,表示的是原本样本中的正例有多少被正确预测了。一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

标注问题:
输入是观测序列,输出是标记序列,自然语言处理中的词性标注(part of speech tagging)就是一个典型的标注问题:给定一个由单词组成的句子,对这个句子中的每一个单词进行词性标注,即对一个单词序列预测其对应的词性标记序列。

回归问题:
分类是关于预测标签,而回归是关于预测数量。用于预测输入变量与输出变量之间的关系问题,特别是当输入变量发生变化时,输出变量的值随之发生的变化。回归模型正表示输入变量与输出变量之间的映射的函数。
具体的,将影响股价的信息看作自变量(输入的特征),而将股价看作因变量(输出的值),将过去的数据作为训练数据就可以学习一个回归模型,并对未来的股价进行预测。

无监督问题
无标注数据是自然得到的数据,预测模型表示数据的类别、转换或者概率。模型可以实现对数据的聚类、降维或概率估计。本质是学习数据中的统计规律或潜在结构。
在学习的过程中,只提供事物的具体特征(特征值),但不提供事物的名称(目标值),让学习者自己总结归纳。所以非监督学习又称为归纳性学习(Clustering),是指将数据集合分成由类似的对象组成的多个簇(或组)的过程。当然,在机器学习的过程中,人类只提供每个样本(苹果和橘子)的特征,使用这些数据,通过算法让机器学习,进行自我归纳,以达到同组内的事物特征非常接近,不同组的事物特征相距很远的结果。
无监督学习里典型的例子就是聚类了。聚类的目的在于把相似的东西聚在一起,而我们并不关心这一类是什么。因此,一个聚类算法通常只需要知道如何计算相似度就可以开始工作了。

强化学习:
机器只能通过动作来影响环境,当机器执行一个动作后,会使得环境按某种概率转移到另一个状态;同时,环境会根据潜在的奖赏函数反馈给机器一个奖赏。综合而言,强化学习主要包含四个要素:状态、动作、转移概率以及奖赏函数。
其实,强化学习就是通过不断与环境交互,利用环境给出的奖惩来不断的改进策略(即在什么状态下采取什么动作),以求获得最大的累积奖惩。
在上述问题中,奖就是喝奶,惩就是打屁屁,在摔倒状态下,是选择哭还是爬起来,不同的动作会有不同的奖惩;初始的策略是哭和爬起来都有可能。但根据奖惩,小屁孩学到了摔倒之后爬起来是一个更好的策略,因此之后都会选择这个策略,这样就可以最大化累积奖惩—喝很多很多奶。

在线学习:每次只接受一个样本,进行预测,之后学习模型,并不断重复该操作的机器学习。
批量学习:一次接受所有的数据,学习模型,之后进行预测。
学习和预测在一个系统,每次接收一个输入xt,用已有模型给出预测f(xt),之后得到相应的反馈,也就是输出yt;系统用损失函数计算两者之间的差异,更新模型;并不断重复以上操作。
有些情况必须是在线的:1、数据依次无法达到存储,需要系统及时作出处理;2、数据规模很大,一次不可能处理所有的数据;3、数据的模式随时间动态变化,需要算法快速适应新的模式。

贝叶斯学习:
主要思想是利用贝叶斯定理,计算模型的后验概率,并应用这个原理进行模型的估计,以及对数据的预测。贝叶斯估计和极大似然估计在思想上有很大的不同,代表着统计学中贝叶斯学派和频率学派对统计的不同认识。假设先验分布为均匀分布,取后验概率最大。
核方法:
定义从低维空间到高维空间的映射,核方法的技巧在于,不显式的定义这个映射,而是通过内积的形式定义核函数。

统计学习方法三要素:
生成方法由数据学习联合概率分布,然后求出条件概率分布,作为预测模型,即生成模型。模型表示了给定输入X产生输出Y的生成关系。
判别方法由数据直接学习决策函数或者条件概率分布作为预测模型,即判别模型。
关心的是对给定的输入X,应该预测什么样的输出Y。

学习的目标:选择期望风险最小的模型。

监督学习问题:是在假设空间F中选取模型f作为决策函数,对于给定的输入X,由f(X)给出相应的输出Y,这个输入的预测值f(X)与真实值可能一致也可能不一致。用损失函数来度量。

对于分类学习算法,我们一般将样本集分为训练集和测试集,其中训练集用于算法模型的学习或训练,而测试集通常用于评估训练好的模型对于数据的预测性能评估。而这个先后顺序就是先将算法在训练集上训练得到一个模型,然后在测试集上评估性能。

你可能感兴趣的:(统计学习方法,算法,机器学习,深度学习)