(图片付费下载自视觉中国)
作者 | Will Knight
译者 | Monanfei
来源 | Wired
出品 | AI科技大本营(ID:rgznai100)
深度学习擅长在大量数据中寻找模式,但无法解释它们之间的关系。图灵奖获得者 Yoshua Bengio 希望改变这一状况。
今年三月,Yoshua Bengio 他为深度学习领域的发展做出了杰出的贡献:研究了触发人工智能复兴的技术,引领了无人驾驶技术,实时语音翻译和面部识别技术的进步。
而现在,Bengio 认为深度学习需要被进一步挖掘。他认为,除非深度学习能够超越模式识别并了解因果关系的更多信息,否则它将无法实现其全部潜力,也不会带来真正的AI革命。换句话说,深度学习需要开始知道事情发生的因果关系。
这位 Bengio 认为,将因果关系集成到 AI 中是一件大事,当前的机器学习方法都假设经过训练的 AI 系统将应用于与训练数据相同类型的数据上。然而,在现实生活中,情况往往并非如此。
包括深度学习在内的机器学习系统是高度定制的,它们针对特定任务进行了训练,例如识别图像中的猫或音频中的口头命令等。自 2012 年左右问世以来,深度学习已展现出了卓越的模式识别能力。它已被用于许多实际用途,例如在医学扫描中发现癌症迹象,以及发现财务数据欺诈等。
但深度学习从根本上对因果关系是盲目的。与真正的医生不同,深度学习算法无法解释为什么特定图像可能存在疾病隐患。这意味着在危急情况下,我们必须谨慎使用深度学习。
了解因果关系将使现有的 AI 系统更加智能,更加高效。以自动驾驶汽车为例,Bengio 认为,人类无需经历很多事故案例就可以谨慎驾驶,因为人类可以想象事故,以便为发生的实际情况做好心理准备。但是机器不能,因此如何赋予AI系统这种能力,是我们真正应该关心的。
现如今,在 Bengio 的实验室里,他正在研究一种能够识别简单因果关系的深度学习算法。他们使用了一个数据集,以概率的形式绘制了诸如吸烟和肺癌等现实世界现象之间的因果关系。他们还生成了因果关系的综合数据集。
该算法本质上形成了关于哪些变量具有因果关系的假设,然后测试了对于不同变量的更改如何符合该假设。例如,我们知道吸烟不仅与癌症有关,还会导致癌症,即使癌症与其他因素(例如医院就诊)相关,这个事实也应该显而易见。
机器人最终可能会使用这种方法来形成一种假设:当物体掉落时会发生些什么。然后在看到几件东西掉在地板上后,机器人再去确认其直觉。
Bengio 已经参与了一次 AI 技术革新。在过去的几十年中,他与今年的其他图灵奖获得者:多伦多大学教授 Geoffrey Hinton以及在纽约大学和 Facebook 工作的 Yann LeCun一起,帮助开发了释放深度学习潜力的思想和技术。
使用人工神经网络通过构建和加强联系,深度学习从数学上近似了人类神经元和突触的学习方式。训练数据(例如图像或音频)被馈送到神经网络,神经网络会逐渐进行调整,直到以正确的方式做出响应为止。只要能够看到很多训练图像并具有足够的计算能力,就可以训练深度学习程序,从而准确地识别照片中的对象。
但是深度学习算法并不善于概括,也不善于将它们从一个上下文中学到的东西应用到另一个上下文中。它们能够捕获相关的现象,例如公鸡啼叫和太阳升起,但是无法考虑彼此之间的因果关系。
因果关系已在其他领域进行了长期研究,近几十年来出现了许多探索因果关系的数学技术,从而帮助彻底改变了包括社会科学、经济学和流行病学在内的各个领域的研究。一小群研究人员正在努力将因果关系和机器学习结合起来。
Judea Pearl 因为因果关系推理的工作而获得了 2011 年的图灵奖,Pearl 参与合著的新书《因果之书:因果关系的新科学》(The Book of Why: The New Science of Cause and Effect)讲到,如果没有某种因果推理的能力,人工智能将从根本上受到限制。
此外,认知科学实验还表明,理解因果关系是人类发展和智力的基础,尽管我们尚不清楚人类是如何形成这种知识的。
Bengio 关于因果关系的工作可能是回答这一问题的契机,但它也反映了深度学习更多现实的方面。即使随着深度学习技术的应用成倍增加,越来越多的专家指出,该技术在诸如语言理解之类的关键领域中存在局限性。
在采访中,Bengio 对公司如何夸大 AI 和深度学习的能力表示很沮丧。他认为,如果商业世界能够进行一些修正,那将是一件好事,因为商业炒作目前过于夸大其词了。
其他人则认为,专注于深度学习可能只是问题的一部分。纽约大学名誉教授 Gary Marcus最近出版的《重新引导 AI:建立我们可以信任的人工智能》( Rebooting AI: Building Artificial Intelligence We Can Trust)表示,Bengio 对因果推理的兴趣预示着深度学习领域思维的可喜变化。
认为,太多的深度学习侧重于没有因果关系的关联性,这常常使深度学习系统在真实条件下进行测试时不尽人意。他认为,来自人类经验的教训是显而易见的,当孩子询问为什么的时候,他们正在探索因果关系,因此当机器开始问为什么的时候,它们会变得更加聪明。
原文链接:
https://www.wired.com/story/ai-pioneer-algorithms-understand-why/
◆
精彩推荐
◆
如何保护你的Python代码(一)——现有加密方案