4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记

文章原创,最近更新:2018-07-24

学习链接:
4-1 Leaming is Impossible
4-2 Probability to the Rescue

学习参考链接:
1、台湾大学林轩田机器学习基石课程学习笔记4 -- Feasibility of Learning

1.Leaming is Impossible

上节课,我们主要介绍了根据不同的设定,机器学习可以分为不同的类型。其中,监督式学习中的二元分类和回归分析是最常见的也是最重要的机器学习问题。本节课,我们将介绍机器学习的可行性,讨论问题是否可以使用机器学习来解决。

首先,考虑这样一个例子,如下图所示,有3个label为-1的九宫格和3个label为+1的九宫格。根据这6个样本,提取相应label下的特征,预测右边九宫格是属于-1还是+1?结果是,如果依据对称性,我们会把它归为+1;如果依据九宫格左上角是否是黑色,我们会把它归为-1。除此之外,还有根据其它不同特征进行分类,得到不同结果的情况。而且,这些分类结果貌似都是正确合理的,因为对于6个训练样本来说,我们选择的模型都有很好的分类效果。

4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第1张图片

再来看一个比较数学化的二分类例子,输入特征x是二进制的、三维的,对应有8种输入,其中训练样本D有5个。那么,根据训练样本对应的输出y,假设有8个hypothesis,这8个hypothesis在D上,对5个训练样本的分类效果效果都完全正确。但是在另外3个测试数据上,不同的hypothesis表现有好有坏。在已知数据D上,g≈f;但是在D以外的未知数据上,g≈f不一定成立。而机器学习目的,恰恰是希望我们选择的模型能在未知数据上的预测与真实结果是一致的,而不是在已知的数据集D上寻求最佳效果。

4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第2张图片

这个例子告诉我们,我们想要在D以外的数据中更接近目标函数似乎是做不到的,只能保证对D有很好的分类结果。机器学习的这种特性被称为没有免费午餐(No Free Lunch)定理。NFL定理表明没有一个学习算法可以在任何领域总是产生最准确的学习器。不管采用何种学习算法,至少存在一个目标函数,能够使得随机猜测算法是更好的算法。平常所说的一个学习算法比另一个算法更“优越”,效果更好,只是针对特定的问题,特定的先验信息,数据的分布,训练样本的数目,代价或奖励函数等。从这个例子来看,NFL说明了无法保证一个机器学习算法在D以外的数据集上一定能分类或预测正确,除非加上一些假设条件,我们以后会介绍。

测试练习:


4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第3张图片

答案是4


4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第4张图片

2.Probability to the Rescue

从上一节得出的结论是:在训练集D以外的样本上,机器学习的模型是很难,似乎做不到正确预测或分类的。那是否有一些工具或者方法能够对未知的目标函数f做一些推论,让我们的机器学习模型能够变得有用呢?

如果有一个装有很多(数量很大数不过来)橙色球和绿色球的罐子,我们能不能推断橙色球的比例u?统计学上的做法是,从罐子中随机取出N个球,作为样本,计算这N个球中橙色球的比例v,那么就估计出罐子中橙色球的比例约为v。


4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第5张图片

这种随机抽取的做法能否说明罐子里橙色球的比例一定是v呢?答案是否定的。但是从概率的角度来说,样本中的v很有可能接近我们未知的u。下面从数学推导的角度来看v与u是否相近。

已知u是罐子里橙色球的比例,v是N个抽取的样本中橙色球的比例。当N足够大的时候,v接近于u。这就是Hoeffding’s inequality:

关于霍夫丁不等式:
1)对任意N和ε都成立;
2)不需要知道 μ;
3)当N larger、looser gap ε(较大的容忍度),那么 v ≈ μ的概率会higher;
因此,如果sample够大的话,我们可以通过v infer μ(概率论知识)。

Hoeffding不等式说明当N很大的时候,v与u相差不会很大,它们之间的差值被限定在ϵ之内。我们把结论v=u称为probably approximately correct(PAC)。

4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第6张图片

测试练习:


4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第7张图片

答案是3,这是机率的上限.


4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记_第8张图片

你可能感兴趣的:(4-1 Leaming is Impossible&4-2 Probability to the Rescue|机器学习基石(林轩田)-学习笔记)