李宏毅 机器学习笔记-01 Introduction

人工智能

人工智能这个词想必大家都不陌生,但你能准确的告诉我他是什么吗?
李宏毅 机器学习笔记-01 Introduction_第1张图片
人工智能是人类长久以来的目标 – 希望机器可以和人一样聪明。

大概80年代以后,有了机器学习的方法。顾名思义就是让机器拥有自我学习的能力。机器学习就是我们达成这个目标手段

火爆的深度学习仅仅是机器学习的一个分支。

人们模仿生物的本能(人类智能)去设计一些机器,如聊天机器人。但是已有的很多产品是基于规则的实现方式。如只要出现了"turn off"就会关闭机器(如智能音箱),但如果你说的是don’t turn off,依然会关闭 (刚刚用Siri测试了,掉链子)。基于手工规则的构建方式,无法穷举所有的可能,而且无法超越创造者。因为规则本身只是一种简单的运算(本质上还是做匹配),是无法去学习规则的。

机器学习

机器学习就是让我们摒弃这种用人脑制定规则的方法,用data让机器自己制定规则。
李宏毅 机器学习笔记-01 Introduction_第2张图片
在我们现如今的技术能力下,研究的AI本质上是Narrow AI,即针对某一类任务的AI,而不是全能性AI。
说白了,机器学习就是要寻找到正确的函数。这个函数可以根据我们的输入求得一个我们需要的输出

机器学习的框架

训练

  1. 定义函数空间(函数集合)。
  2. 选择评估函数。
  3. 在函数空间中,根据评估函数选出最优的函数。

测试

用选出最优的函数,测试未知的数据
李宏毅 机器学习笔记-01 Introduction_第3张图片

机器学习算法分类

  1. 监督学习(大量有标签数据)
  2. 半监督学习(少量有标签数据+大量无标签数据)
  3. 无监督学习(大量无标签数据)
  4. 其他:强化学习(根据反馈结果(critics)不断进行学习),推荐系统

监督学习对比强化学习在自动应答中的应用:
李宏毅 机器学习笔记-01 Introduction_第4张图片

The Next Step for Machine Learning

本来觉得绪论部分千篇一律,没什么意思。但是这部分是2019年春季班的新增内容,为我学习机器学习带来了更大的兴趣。

还有哪些是我们使用机器学习技术时需要克服的难题

1.机器知不知道“我不知道” (Anomaly detection)

例如,当我们训练好一个猫狗分类的模型,你却给他一个人的图片数据。机器有没有能力知道这是一个我无法分类的怪东西,还是强行给他分类为狗或者猫。

2.说出我“为什么”知道

2017年的“马”识别器,两个模型都取得了PCT 80多的好成绩,下图中红色是机器真正看到的地方。图一看到一匹马,没问题。图二看到左下角有一匹马,问题很大!因为训练图片都水印都一样,有水印就证明有马!他并没有真正的学会如何识别“马”。所以我们需要一项可以让AI告诉我们“为什么”这么判断的技术。
李宏毅 机器学习笔记-01 Introduction_第5张图片

3.机器的错觉?(Adversrial Attack)

识别为熊猫的图片,加上噪声之后,竟然99.3%识别为长臂猿。

如果无人车上的图片识别系统,在周围情景的干扰下产生这种错觉撞车了,这是有可能会发生的。所以我们需要一项技术来防止机器发生错觉。
李宏毅 机器学习笔记-01 Introduction_第6张图片

4.机器的终身学习 (Catastrophic Forgetting)

一般我们只让一个模型学习一个任务…
问题是:

  • 每个任务都训练一个模型,那模型的熟练无线增长,存储空间总会不够用
  • 不用任务的模型之间无法学习,无法互相帮助
    一个模型学习了新的内容,就得内容就忘记了,这是一个终身学习的大问题。
    李宏毅 机器学习笔记-01 Introduction_第7张图片

5.学习如何学习 (Meta-learning/Learn to learn)

最终达到的效果就是,我们编写的AI可以自己编写学习的代码,这个代码可以写出训练方法,实现自主学习。
李宏毅 机器学习笔记-01 Introduction_第8张图片

6.一定需要很多训练数据吗?

  • Few-shot learning (少量数据学习方法):给几个图片,就能学习图像识别
  • Zero-shot learning(没有学习数据):给一段文字描述,做图像识别。例如:乌龟就是一个绿色,有大的后盖的动物。

7.Reinforcement Learning 强化学习

人机对战的利器,完胜人类的AlphaGo。问题是训练特别特别长的时间才能和人做的一样好。有没有办法让RL学的快一点。

8.神经网络压缩(Network Compression)

  1. 能不能在应用端把大神经网络缩小,节省计算资源,降低计算成本
    李宏毅 机器学习笔记-01 Introduction_第9张图片
  2. 参数二元化:能不能把所有神经元的参数都变成“+1”和“-1”,提高计算效率。

9.机器学习的谎言(Unsupervised Domain Adaptation)

真实的应用场景往往和训练集上的数据不同,例如这个数字识别中变换颜色的问题。
李宏毅 机器学习笔记-01 Introduction_第10张图片

Introduction部分的笔记到此结束。期待明天进入正式课程的学习。三板斧,加油!

你可能感兴趣的:(李宏毅,Machine,Learning,人工智能,机器学习,李宏毅)