作者:Walid Saba翻译:欧阳锦校对:黄衍楠
本文约2500字,建议阅读8分钟
本文讨论了符号逻辑对人工智能研究的意义。
标签:符号逻辑,人工智能
泛化和高级表示
著名的机器学习(ML)研究者Yoshua Bengio,也被认为是深度学习(DL)的教父之一,他最近被引述说:
现在的深度学习在感知方面取得了巨大的进步,但它还没有在能够发现高层次表征的系统上取得成果,也就是我们在语言中使用的那种概念。人类能够利用这些高层次的概念,以强大的方式进行概括。这是连婴儿都能做到的事情,机器学习却非常不擅长。
Bengio的诊断是正确的。在著名的三人组(Geoff Hinton、Yoshua Bengio和Yann LeCun)中,与Hinton的 "很快深度学习就能做任何事情"相反,Bengio已然持更开放的态度去讨论DL的局限性。但是Bengio仍然坚持认为,DL范式最终可以在不诉诸符号和逻辑推理的情况下进行高级推理。
DL极端主义者在承认符号和逻辑推理(S&LR)时遇到的问题是,这将使神经网络成为只是可用于感知和模式识别等低层次任务的工具之一,而S&LR将拥有模拟类似人类的高层次推理的高等级地位,即我们在面对复杂问题时解决任务、语言理解等方面使用的那种高层次推理。
因此,任何把思维看作神经网络的人都不会承认对符号和逻辑推理(S&LR)的需要。但是,如果他们现在不接受这一事实,最终他们也会接受的——如果他们承认对那种让我们得以 "以强大的方式进行概括"的抽象概念的高级表征的需要,而显然Bengio确实承认了。
但没有逻辑概括就没有基本事实的学习
在之前的一篇文章中,我讨论了自上而下学习(相对于从数据自下而上学习)的可能性:通过实例化先天(形而上学)模板,因为否则就很难解释儿童没有花费时间从数据中学习这些模板,就在早期就知道基本的天真常识性物理学(naïve commonsense physics)。作为一个例子,我使用了LocatedIn模板。这个模板的逻辑可以用下面的图片来描述。
因为他的棒球手套在他的公文包里,所以汤姆知道如果他把公文包放在他母亲的SUV里,他的棒球手套的位置也是他母亲的SUV的位置。他还知道,如果他们开车去纽约的伍德斯托克,那么他的棒球手套现在就在纽约的伍德斯托克,等等。
正如我们之前所讨论的,假设一个孩子从观察/数据中自下而上地学习上述模板的逻辑是非常奇怪的。有很多技术上的原因可以解释为什么这是一个奇怪的假设,但我们在此指出,这种自下而上/数据驱动的对这些(常识)幼稚的物理学模板的学习有两个非常关键的问题。(i) 这篇论文遇到了一个循环性问题,因为在学习LocatedIn模板的逻辑时,人们需要已经学习了(例如)ContainedIn模板的逻辑,而这又可能递归地假定已经知道LocationIn模板;(ii) 如果这些模板是自下而上学习的(因此是单独学习的),我们有可能学得不同,但由于我们不被允许学得不同,它们不可能是个人观察(或经验)的结果。
但现在暂且搁置 "一切都从数据中自下而上地学习 "的观点的所有问题,我想在这里集中讨论这个简单模板的逻辑。显然,孩子不是在数据/实例层面上学习这个模板(棒球手套/公文包;公文包/SUV,然后SUV/纽约州......)而是在一个更高的层面上;即physicalObject-containedIn-physicalObject。没有什么可以解释一个孩子是如何快速地意识到这个模板的逻辑的(如果一个孩子从对实例的观察中了解到这一点,他们将花费一生的时间来学习这个基本的常识性物理事实)。
那么,这样一个模板的逻辑是如何学习的呢?一个建议是,它是自上而下而不是自下而上学习的:有描述我们生活的世界的物理模板,孩子“学习”这些常识性事实所需要的只是实例化一些先天模板次。上述具体模板的逻辑可以描述为:
作为另一个简单的例子,孩子也会很快学会把某个椅子,比如说chair1,涂成红色,从而得到Color(chair1, red)这一事实。但是,一旦这个模板被实例化,孩子就不需要看到door2 涂成白色,就知道会产生Color(door2, white);也不需要看到car100涂成黄色,就知道会产生Color(car100, yellow)。孩子学会了对代表概念的更高层次符号的量化概括:
孩子通过看到大量涂有不同颜色的物体,自下而上地从数据中学习上述模板,这一点根本不靠谱。如果没有其他合理的解释来说明孩子如何如此迅速地 "学会 "这些常识性的物理事实,我们认为这种普遍的模板的逻辑是与生俱来的,孩子通过寥寥几次实例化模板,自上而下地迅速学会了这些事实。如果这个说法是正确的,那么它唯一可能发生的方式就是对符号进行量化--这些符号代表了整个类别而不是具体的实例(例如,位置、物体、颜色等)。在没有量化和符号逻辑的情况下,似乎没有合理的解释,这种类型的概括和学习是如何在自下而上/数据驱动的方法中发生的。
没有逻辑概括就没有语言的学习
除了常识性的形而上学事实,对代表高层次概念的符号进行量化是对儿童如何学习语言的唯一合理解释。当一个孩子听到(和理解)诸如以下的句子时
然后孩子会知道,任何人类都可以成为爱的媒介,而他们爱的对象可以是任何实体。因此,孩子会理解或产生任何具有以下结构的句子。
这是一个给潜在无限数量的句子的模板,因为爱的媒介可以是任何人类,而爱的对象可以是任何实体(人类,如玛丽或隔壁的男孩;或像弹吉他这样的活动!)。因此,孩子所学到的是对某一类型/类别的符号进行量化的规则。下面是上述模板的一些实例。
同样,关于儿童如何非常迅速地学习这些模板的唯一合理解释是,儿童"掌握"了一个高级模板,而这个模板只有在代表高级概念的符号(宽泛地说,代表特定类型的符号)上通过量化来定义,才能被正确实例化。
Bengio和对能用高级表征进行概括的人工智能的追求
Bengio是正确的,"人类能够使用这些高级概念以强大的方式进行概括",ML/DL "还没有提供能够发现高级表征(我们在语言中使用的那种概念)的系统"也是正确的。但他的说法,如果我们坚持自下而上/数据驱动的范式,排除其他任何范式,就可以获得这种概括,是错误的。他认为,在不承认对符号的逻辑量化(符号的范围/代表高级概念)的情况下,我们可以做到儿童早期掌握的那种概括和概念化,也是错误的。还要注意,有些符号又可以用复杂的句法结构来定义。请考虑以下情况:
(1) "戴着黑色AC/DC帽子经常来这里的高个子男孩"
(2) "约翰"
虽然(1)是一个复杂的名词短语,但从语义上讲,(1)和(2)都是同一类型的对象,即一个人!
数据是很重要的。而在数据中寻找重要的相关性也很重要并且有很多有用的应用。但是认知,特别是人类层面的认知,远不止是观察数据中的一些模式。尽管有着被误导的炒作和媒体的狂热,到目前为止,没有任何合理的理论可以证明人类能够进行的那种高级推理可以摆脱符号推理。
顺便说一句,我在这篇文章中没有说过任何至少从20世纪80年代初就已经观察到的、支持和证明过的东西。阅读Jerry Fodor将是一个好的开始--因此,也许现在是时候以开放的心态重新阅读人工智能和认知科学了?
Andrew Gordon 和Jerry Hobbs关于如何将常识形而上学形式化的重要参考资料
原文标题:
AI Cannot Ignore Symbolic Logic, and Here’s Why
原文链接:
https://medium.com/ontologik/ai-cannot-ignore-symbolic-logic-and-heres-why-1f896713525b
编辑:于腾凯
校对:林亦霖
译者简介
欧阳锦,一名在埃因霍温理工大学就读的硕士生。喜欢数据科学和人工智能相关方向。欢迎不同观点和想法的交流与碰撞,对未知充满好奇,对热爱充满坚持。
翻译组招募信息
工作内容:需要一颗细致的心,将选取好的外文文章翻译成流畅的中文。如果你是数据科学/统计学/计算机类的留学生,或在海外从事相关工作,或对自己外语水平有信心的朋友欢迎加入翻译小组。
你能得到:定期的翻译培训提高志愿者的翻译水平,提高对于数据科学前沿的认知,海外的朋友可以和国内技术应用发展保持联系,THU数据派产学研的背景为志愿者带来好的发展机遇。
其他福利:来自于名企的数据科学工作者,北大清华以及海外等名校学生他们都将成为你在翻译小组的伙伴。
点击文末“阅读原文”加入数据派团队~
转载须知
如需转载,请在开篇显著位置注明作者和出处(转自:数据派ID:DatapiTHU),并在文章结尾放置数据派醒目二维码。有原创标识文章,请发送【文章名称-待授权公众号名称及ID】至联系邮箱,申请白名单授权并按要求编辑。
发布后请将链接反馈至联系邮箱(见下方)。未经许可的转载以及改编者,我们将依法追究其法律责任。
点击“阅读原文”拥抱组织