深度学习如日中天,我为什么却要反对它?

喜欢我的文字,欢迎关注同名公众号:郭老师的读书随想

类别:专业

书名:AI的二十五种可能

作者:约翰·布罗克曼

(图片来自互联网)

笔者按

本想着这本书已经有中文版了,就不需要再费笔墨写推文了。英文版我一个月前就推荐给组里同学,可前两天返回的消息是还没有同学开始阅读,而且原因也不是因为语言。当时有点小失落,不过转眼也就释怀了。毕竟我在这个年纪的时候,读的书也不会是专业方面的。


书是好书,想了想还是写点东西吧。我知道在公众号上发专业的推文并不讨好,从之前几篇的阅读量就看得出来。但本来咱干的就是小众的事,就不奢望太多了。能让一个人看到,能了解这篇文章的核心思想,能帮助建立自己的观点,我这点活也就算没白干。


这本书我计划每期一章,不做大篇幅介绍,只摘出作者的核心观点,方便大家快速了解,同时辅以个人观点,供大家参考。如读后觉着有兴趣,建议大家阅读原书了解详细内容。

本章作者

(图片来自互联网)

朱迪亚·珀尔(Judea Pearl),计算机科学教授,加州大学洛杉矶分校认知系统实验室主任,2011年图灵奖得主,贝叶斯网络之父,自称“AI社区的反叛者”。

深度学习有自己的动力学机制,它能自我修复,找出最优化组合,绝大多数时候都会给出正确的结果。可一旦结果错了,你不会知道哪里出了问题,也不知道该如何修复。

                                   --  朱迪亚·珀尔

第二章:不透明学习机器的局限性

珀尔教授最为人所知的成就可能就是提出了贝叶斯网络模型,做方法的同学可能应该没有不知道这个模型的。简单提一句,贝叶斯网络又称信度网络,是用来对不确定的知识进行表达和推理的一种概率模型。

结构上,是一个有向无环图,结点是变量,连接表示这两个变量之间的关系,一般是条件概率。所以贝叶斯网络模型可以很好的利用概率来表达不确定问题,并且实现不完全或者不确定知识的推理。更详细的内容,有兴趣的朋友可以自行查阅相关资料。

为什么这里一定要简单科普下这个模型,是想强调一下珀尔教授的知识背景,这样能从一定程度上更好地理解他的观点。从下面的内容看,可以发现珀尔教授对于机器的推理能力是非常看重的,他认为推理能力是强人工智能中的基础。而这,恰恰是深度学习(或者说是盲模型)的短板。

本章中,珀尔教授主要探讨了两点内容,一、深度学习的局限性;二、因果推理能力的重要性。下面摘出文中要点,方便大家快速理解掌握。

1.从本质上说,深度学习是一个曲线拟合问题,从大量的数据中进行观察,在中间层中不断的调整参数,以实现优化。如果我们想得到更好的结果,我们只需提供更多的数据,更复杂的模型,以及性能更好的硬件。

2.深度学习最大的问题在于它是不透明的。大多数用户发现深度学习“很好用,但我们也不知道为什么好用”。同时,当结果出现问题的时候,用户并不清楚问题出现的原因,是数据、代码、模型还是环境,还是什么其他原因。原因不明,也就无从谈起如何修复。

3.深度学习的不透明性,是模型的“基本障碍”。无论我们付出怎样的努力,都并不能帮助计算机真正意义实现人类的智慧。

4. 一些人认为我们并不需要完全透明的系统,只要它好用就行,就像人脑。我们并不完全清楚人类神经系统的结构及机制,但它却是人类智慧的发源。我们甚至应该利用深度学习,构造一个完全不需要了解其工作原理的智能。

5. 珀尔教授并不认可这种观点。他认为,我们不能拿人脑来类比。对于人脑而言,即使我们并不完全清楚它的工作机制,但是这并不妨碍我们使用人脑。我们利用人脑来帮助我们控制行动、产生决策、与人交流等等,同时,我们还可以随时改变我们的想法。但是机器不一样。如果一个系统对于人类而言,不是完全透明的,那人类就无法与它们进行有意义的交流,甚至我们可能无法完全控制它们的行为(这个观点下一章的内容也涉及到了。下一章主要探讨的是我们能否确保机器的目标和人类的目标是一致的)。

6. 类似深度学习这样的模型,珀尔教授称之为盲模型(model-blind)。这样的模型,是从环境中接收到的输入的参数来进行优化,并不断提高模型性能。这种缓慢的、类似于达尔文进化的模型,并不能帮助我们建立强人工智能(强人工智能是模拟人类推理能力的人工智能)。因为这样的模型无法回答“如果xxx,会怎么样?”这类问题。而这个能力,恰恰是强人工智能的基础 -- 推理能力。

7. 对于推理能力,珀尔教授把它定义为了三层。第一层,统计推理。统计推理直接建立在两个变量上,从一个变量直接映射到另一变量。例如,某些症状,可以告诉患者可能得了某个疾病。

8. 第二层推理,珀尔教授没有给出具体的名字,这里我暂且把它定义为“干预推理”,意思是我们对其中的变量进行了人为的改变,再来进行结果的映射。比如,“如果我们抬高了价格会怎样?”“如果你让我笑了,会怎么样?”。

9. 第三层推理,反事实推理。反事实是指对于没有发生的,或者不可能发生的事件,进行结果的推理。比如“如果这个东西重两倍,会怎么样?”“如果我当初没有这么做,会怎么样?” 反事实推理是推理中的最高层。我们可以得到任何行动的预测结果,却无法得到反事实的预测结果。

10. 关于如何进行推理,珀尔认为我们需要将科学知识编码成模型,然后再进行查询。关于知识的问题,我下面谈我个人的观点。

最后总结下,对于珀尔教授的核心观点有两个,一、我们不能接受不透明的模型,因为“不透明的学习系统可能会把我们带到巴比伦,但绝不是雅典”;二、没有推理能力的机器算不上是智能的,特别是干预推理和反事实推理。“除非我们迈出最后两步,否则我们不能说了解了现实。”

郭老师观点

珀尔教授的两个观点,第一点我是非常认同的,这也是为什么我对深度学习同样没有好感的原因。不透明系统可能会是所有意外产生的根源。

上一章谈到奇点到来时的悲观观点,很大一部分就是因为未知的机器行为和人性的黑暗面对机器的不恰当使用。不可否认,前者是有可能会由不透明系统产生的;而后者,在目前的社交系统里已经显现了人类社会的固有偏见了。

我们有理由怀疑,在未来的智能系统中,人性的黑暗面,同样也会被机器继承下来。

第二点,是不是如珀尔教授认为的,只有具备推理能力的机器,才是智能的。我个人的理解,这取决于对于“智能”的理解和要求。如同我在本书的第一篇荐书里所写的那样,这取决于我们需要机器做什么以及做到什么程度。

对于干预和反事实推理,珀尔教授认为需要将科学知识进行建模。确实如此,想要实现推理,无论是哪一层,我们都需要对知识进行建模。对于某个特定领域,可能只需要进行领域知识的建模。而对于通用领域而言,不仅是领域知识,更重要的是常识知识,同样也要进行建模。

但问题就在于此。第一,领域模型的通用性,第二,常识模型的构建。特别是后者,基本不具备可操作性。我们已经做了很多年,很早的WordNet,后来的本体,再后来的知识图谱,现在又有了认知图谱。但是从我个人角度理解,举步维艰。

近几年,我们开始谈通用人工智能(Artificial general intelligence,简称AGI)。我个人认为,无论是哪个层面下的通用,我们都需要解决常识的问题。而在目前的方法框架下,是不具备实现的可能的。当然,仅代表个人观点。

作者:郭老师

喜欢我的文字,欢迎关注同名公众号:郭老师的读书随想

你可能感兴趣的:(深度学习如日中天,我为什么却要反对它?)