CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶

CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶_第1张图片来源:人工智能前沿讲习


CCAI 2019

2019年中国人工智能大会(Chinese Congress on Artificial Intelligence 2019,简称“CCAI 2019”)将于在9月21日-22日在青岛胶州召开。



谷歌、特斯拉,百度、滴滴、蔚来……如今从国外到国内,越来越多的企业投身到无人驾驶的开发大军当中。相比于人机对弈、人脸识别、图像识别等深度学习领域在近年取得的进步,无人驾驶似乎“慢”了一些。


不过,慢自有慢的道理。不同于深度学习,无人驾驶面对的挑战更多来自环境的开放性和不确定性,这无疑对机器的能力提出了更高要求。


无人驾驶已来,它将驶往何处?这是所有关注这一行业的人亟待思考的问题。如果要问谁对这一问题具有发言权,郑南宁一定榜上有名。


郑南宁是中国自动化学会理事长,中国工程院院士。他长期从事无人驾驶研究,团队和项目已进行过多次路测试验。他在多个场合阐释过对于未来人工智能、尤其是无人驾驶发展的思考。


CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶_第2张图片


传统人工智能与深度学习的局限


要理解传统人工智能的局限,需要先了解它的工作方法。当面对一个问题时,传统人工智能首先要给出精确数学意义上的解析模型,如果模型无法抽象出来,这个问题就是无解的。

模型出来后,要给出确定的算法,之后人工智能系统的算力、能力或任务就是唯一的。

但在现实生活中,人类面临的许多问题往往具有不确定性、脆弱性和开放性。郑南宁指出,当前人工智能的理论框架是建立在演绎逻辑和语义描述基础之上的,我们不可能对所有遇到的问题都进行建模,因为条件问题的存在,我们不可能把一个行为的所有条件都模拟出来。传统人工智能的局限性由此可见。

近年来深度学习取得了喜人进步,给人工智能的发展带来了春天。但在郑南宁看来,深度学习面对的诸多问题也不容回避。

首先是深度学习的泛化能力差,且训练数据和测试数据必须是同分布的,如果做不到这一点,机器的分类能力就会极大降低。

其次是深度学习的表达能力较弱。虽然它可以通过长期训练输出合理、准确的结果,但它始终“知其然而不知其所以然”,无法了解结果背后的推理过程。

最后是深度学习无法引入注意机制。这一机制强调的是计算过程中的路径选择和计算负载的分配,深度学习目前还找不到有效办法解决这一问题,而注意机制是构成高级AI的基本核心。

CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶_第3张图片


“直觉性”将成为人工智能的未来


既然当前人工智能存在这些局限,未来我们应该如何寻找突破口,让人工智能实现升级?

郑南宁认为,当前人工智能与人类的“较量”中,在逻辑性、可重复性和规范性方面,计算机已经明显胜出;但是人类面对的大部分问题都是开放的、动态的、复杂的,大脑在处理这类问题时所表现出的想象力和创造力,以及对复杂问题的分析和描述,是当前人工智能的方法所无法企及的。

郑南宁说:“人类思维是在记忆经验和知识的基础上进行预测、模式分类以及学习的。特别要注意这个预测能力,每个人的大脑中都有预测的模型,所以说从本质上来讲,大脑就是一个预测的机器,而对于驾驶行为而言,预测能力非常重要”。相较之下,计算机想要实现预测就非常困难。

在郑南宁看来,未来的计算机需要像人一样,能够对物理世界产生直观理解。人类产生认知的过程,已经给计算机的进化指明了方向。

人脑对于非认知因素的理解更多地来自于直觉,并受到经验和长期知识积累的影响,这些因素在人对物理环境理解与行为交互、非完整信息处理等问题中有着极其重要的作用。

此外,人类是通过与事物的互动来实现学习的,人类认知过程中的特征概念形成,往往是建立在语义解释的基础上,人类依赖对事物的观察在大脑中建立不同的分析模型,并利用这些模型来推测事物的变化。

机器学习与人类产生认知的路径是完全不同的。郑南宁认为,为使机器学习人类的认知方式,需要其所学特征在一定程度上符合神经生理学的实验结果,同时要使特征具有数学和语义的解释性。此外,大脑神经网络结构的可塑性,以及人脑在非认知因素和认知功能之间的相互作用,它们是形式化方法难以、甚至不能描述的。

因此,郑南宁提出:“我们需要从脑认知机理和神经科学获得灵感和启发,发展新的AI计算模型与架构,让机器具备对物理世界最基本的感知与反应,即使机器具有‘常识’推理的能力,从而实现更加健壮的人工智能系统。

郑南宁把这样的AI技术,称为“直觉性AI技术”。

要实现这一步,郑南宁认为计算机需要具备三个基本要素:

(1)对环境中的所有对象进行特征识别,并且进行长期记忆;

(2)理出对象间的关系,并对它们相互间的作用进行描述;

(3)基于想象力的行为模型,人在进行具体行动之前,会想象其带来的后果,但机器就需要分析物体之间的各种关系。

CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶_第4张图片


直觉性AI技术可助力无人驾驶


随着人工智能热的兴起,无人驾驶也被人们寄予厚望,全球已有多家企业宣布在2020年前后推出无人驾驶汽车。

但郑南宁提出,当前无人驾驶还面临这五个方面的挑战。

第一,如何周密感知复杂的交通场景?它需要对天气、路况等方面的所有条件,都能作出安全判断。

第二,如何判断和理解意外或突发情况?比如当遇上交通管制,街口出现交警指挥时,它可以有效识别并作出正确反应吗?

第三,如何实现对预行为的理解?比如人类司机可以通过前方行车状况判定开车的是老司机还是新手,并形成自己的应对策略(果断超车还是保持车距),系统呢?

第四,如何防范安全问题?数据都在云端,安全风险无可避免。

第五,在人车交互上,它如何实现与乘客的无障碍交流?

在对交通场景的认知上,人类是一个连续的过程,但计算机是离散的。郑南宁提出,把直觉性AI用到无人驾驶中,就是要基于认知构建一个类人自主驾驶,使计算机也变得连续起来。

自主学习的无人驾驶系统,其学习过程与人类司机相似,都是靠熟能生巧。其中要解决的问题包括以下三点:

第一,人类驾驶员如何注意并获取交通环境信息;

第二,交通环境信息如何在大脑中存储和加工;

第三,产生驾驶行为的背后存在怎样的内部表征。

尽管取得了一些进步,但郑南宁坦言,无人驾驶的商用在短期内还难以实现,真正要“飞入寻常百姓家”,还需要10年甚至更长时间。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。


  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

640?wx_fmt=jpeg

你可能感兴趣的:(CCAI 2019 | 郑南宁:“自觉性AI技术”可助力无人驾驶)