清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI

 

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第1张图片

整理 | 琰琰

人工智能发展至今,除了“大炼模型”,是否存在其他路径可以推动人工智能发展和迈向通用智能?

6月2日,在智源大会“人工智能的认知神经基础”圆桌论坛上,来自智源研究院的刘嘉、宋森、余山、吴思、陈良怡等及北京大学人工智能研究院的杜凯等六位专家就人工智能前沿探索展开了讨论,学者们一致认为,将现有认知神经科学等领域的最新成果、技术、研究工具和理论方法应用到人工智能中,模拟生物大脑,利用人工网络研究生物大脑的特性等,可以推动脑启发的人工智能的发展,为通用智能研究开辟一条新路径。

我们知道,当前深度学习神经网络与大脑的神经计算仍存在非常大的差距,如在处理基本的视觉信息输入时,人工神经网络还依赖于对静态图像的学习,而人类视觉系统的神经网络处理信息是一个动态的过程。

基于此,从神经计算模拟,到类脑算法研发,再到实现特定认知构建一个完整的多层面、多尺度的生物基础数据库和人类认知行为范式库显得尤为重要。

此次圆桌论坛中,专家们介绍了依托智源研究院平台资源建设的生物智能开源开放平台及相关研发进程:包括斑马鱼全脑结构及功能像数据和人脑视觉认知的神经活动数据的生物基础数据库BioDB,涵盖众多不同人类认知行为任务数据的CogNet数据库,以及用于进行神经计算建模的BrainPy、DNNBrain等类脑计算开源工具箱等。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第2张图片

下面AI科技评论在不改变原意的基础上对本次论坛内容做了如下整理:

主持人刘嘉:“悟道2.0”是人类工程上的奇迹,而我们还有另一个奇迹——人类的大脑,它代表了世界上所有智能生物的最高成就。经过亿万年进化,人类大脑能够通过低功耗和少量数据实现比现有人工智能更加通用及更加复杂的智能行为。从这个角度来讲,探索生物大脑智能认知和复杂行为背后的神经科学基础,对于探索智能的本质、迈向通用人工智能研究具有重要意义。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第3张图片

今天我们邀请认知科学、神经科学以及计算科学领域的专家们在此展开讨论,目的也是希望通过不同学科的交叉互动,为人工智能下一步发展带来新的启示。下面我们正是进入讨论环节。

主持人:我们知道,与大脑中的神经元相比,深度学习神经网络在结构和功能上仍非常简单。二者比较来看,大脑中复杂的形态和结构在计算上会带来哪些本质的区别?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第4张图片

杜凯:蠕虫的神经系统非常简单,它的神经元看起来就像一个点。但随着生物的进化,你会发现一个有趣的规律:在向高等生物进化的过程中,生物的神经元和树突会变得越来越大、越来越复杂,但它的胞体大小几乎不变,这意味着生物进化过程中,树突的复杂性与智能程度是相关的。那么这种复杂的树突有什么样的计算优势呢?

相关研究在神经科学领域已有近20年,我们称之为树突计算,简单来说,由于树突的存在,单个细胞的计算功能就像一个网络(NetWork),而不是一个点。最近Nature Neuroscience上一篇研究论文提出,由于大量树突的存在,我们大脑中的feedforward和feedback是分开计算(路径)的,这意味大脑有一个特殊功能,即前向计算和后向计算可以同时进行,换句话说,它让我们在学习的时候,可以边看边学,这是和AI非常不一样的地方。

主持人:除了神经元本身的Network特性外,我们知道大脑的表征和连接也有着丰富的特性和灵活性。与传统AI相比,这种连接的多样性给生物智能带来了更多的可能。对于这种情况,AI要如何实现计算?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第5张图片

宋森:神经科学研究发现,大脑中有哪些细胞类型、如何连接,在发育阶段已经由基因所决定,这些细胞类型的连接为后续的学习带来了先验性,使早期学习变得容易,这是生物领域多样性带给我们的启示。

神经元的功能连接强度是时刻变化的。每完成一次任务,神经信号的流动都不太一样。这种变化带了更大的灵活性,但也为人工神经网络带来一项艰巨的挑战——到底什么是不变的,要怎样进行计算?

随着大规模预训练模型的出现,大家开始越来越关注这个问题。目前的研究思路是从相关脑区连续跟踪一群神经元在学习过程中的活动,虽然单个神经元的表征在不断发生变化,但如果对群体进行分析,你会发现其中有一些不变的因素,形成低维的流形。在这个过程中,在没有主动学习时,大脑也在不断地优化表征,并提高信号处理的效率。另外,科学家还发现两个脑区之间互通所产生的放电模式的维度,要比单个脑区自身的放电模式的维度少一点。如何优化表征让脑区间的通讯更高效也是需要考虑的问题。因此,关于脑区的内部表征和脑区间通讯表征都是目前主要研究的方向之一。

主持人:大脑中的神经网络不是通过单一规则或者简单规则来实现的,而是不同脑区之间的动态交互过程。我们知道,真正的神经计算不仅考虑网络本身,输入的问题还会与大脑中预先存储的先验知识产生交互,而这个动态过程在传统AI中是缺乏的,这会为未来AI的发展带来哪些启示?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第6张图片

吴思:事实上,神经计算与深度神经网络之间的差别非常大。关于动态交互计算的问题,我想谈一点。如果我们给深度神经网络输入一张静止的图像,它会输出一个结果,或是张三或是李四,但神经系统不是这样工作的,对它来说,静止的图像是不存在。从接收信号那一刻开始,输入就是一个连续的光流,而非静止的图像——光投射到视网膜后转成电信号,然后一层一层地向后传输,整个计算过程是动态的。

更为细致地说,在单个神经元层面上,每个神经元不断接受输入信息,超过阈值后神经元就发放,整个过程就是一个事件驱动的信号检测过程。大量神经元构成了一层一层的网络,不断进行特征提取,这也是深度神经网络模拟的信息加工过程。

然而,当我们大脑在做识别任务时,并不只是执行深度学习网络所做的那种简单的特征提取过程。当看到某个物体时,大脑的皮层下通路会首先对物体属性进行整体识别;信息到了高级脑区后,融合记忆和先验知识,首先推断出物体属性可能是什么;然后通过神经反馈与慢速通路,即深度学习网络模拟的视觉腹侧通路的信息加工过程进行动态交互,最终完成物体的精细识别。总的说来,我们可以理解为,物体识别的过程就是输入信息和大脑内部先验知识相互比较与印证的过程,而这个动态交互的过程在当前的深度学习中还没有实现。

那么为什么深度学习网络现在看起来还非常实用呢?其实,这是因为它目前处理的任务还是太简单了。如果只是做图像识别,我们可以不需要动态交互,但如果想做一个能够在环境中自主交互的机器人,这种动态交互过程就变成必须的了。

主持人:Allen曾提到深度学习的知识来源于大数据,并通过“应试教育”完成测试。而人类则是通过教育来获取新知识,这个过程用到的方法和模式要远比深度学习复杂。这种差异性是否会为新一代人工智能带来启发?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第7张图片

余山:其实今天的场合就是一个很好的例子,包括前面四位专家的主题报告,我们在这里的圆桌讨论,整个过程我们都学习到了新的知识。这是人类智能很特别也很重要的一个方面, 即可以通过交流来学习和传递知识。我们现在谈论的智能包括个体智能、群体智能,以及更高层面的文明智能。文明层面的智能就是 知识积累和传递的过程。举个例子,生物学家认为,如果有时光机器穿梭回几万年前,把原始人类的婴儿带到现代社会接受教育,他们完全有能力具有现代人的智力水平, 也能够考上大学。

但是几万年前的人,他们的能力、见识,以及对整个世界的理解比我们要差很多。这个差距就是文明的差距。现代人拥有的知识是人类逐渐积累起来的,我们现在的婴儿不需要从头学开始学,而是在学校用十几年的时间就可以完成人类历史长河沉淀下来的知识,这是人类智能独特且重要的优势,对于AI,我们也希望它能够具备这样的能力,发展出类似的文明。用AI去探索和积累,用高度集约化的表征方式相互传递知识,这对人类文明将是非常重要的推动。

但目前AI距离这一目标还有很大的差距。AI无法做到像人类一样互动、交流和学习,究其根源是:知识的表征过于单一。在深度神经网络里,知识都是通过结构来表征。比如图像识别,我们先是通过大量数据训练,调整网络连接权重,训练完成之后知识就分散在众多的权重结构中了。深度神经网络是通过很慢的结构化学习过程来表征知识,而人类还可以以神经网络活动的形式来表征,比如我讲一个知识点大家马上就记住了。我们可以通过活动表征知识,传递知识,也可以把活动表征逐渐转换为结构形式长期存储下来,而这个过程AI要怎么实现?我们现在还不知道。

在有了知识表征体系之后,AI还需要某种符号系统用于相互之间的交流,这种符号可以是语音、也可以是视觉。最后就像今天一位演讲者提到的神经网络发展出抽象的概念表征很重要,这是我们能够在语义层面做交流、做知识交互的基础。我认为,要想让AI像人一样聪明,发展出像人类文明一样的智能,这些都是必须要考虑的问题。

主持人:关于人类和生物智能如何启发AI,我们可以从另外一个角度来看:AI作为有关生物智能一种模型,我们可以把它当成另外一个物种,一种类脑智能,它或许对于人类理解自身智能产生促进作用,特别是人类最基本的问题——什么是意识?什么是智能?针对这种本源的问题,以自己为参照系可能很难理清楚,如果站在神经网络参照系下,是否会有一些新的理解或洞察?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第8张图片

陈良怡:我们知道,生命系统本身是非常复杂的,小到一个十微米的细胞也有成千上万个分子。大到一个大脑里面有千亿神经元,一百万亿个触突,神经元的数量相当于整个银河系的所有行星数。大脑神经系统庞大的规模和复杂性,意味着我们也许永远不可能同时看到里面所有的东西。在这个意义上来讲,人工神经网络给了我们一个突破口,我们现在的神经网络已经达到了万亿级,可以模拟上百万个神经元。

另外,用神经网络识别同一个任务,不同的研究者使用的网络架构可能大体一样,具体的层数和参数上存在差异,但大家都能得到类似的结果,可能你的是92%,我的是93%,这里就有一个非常有意思的问题:为什么不同的架构,不同的参数,性能有可能大同小异?它们能够得到差不多的Performence,关键取决于哪里?

深度学习是黑盒子,每个模型给出的结果大致相同,但又不完全一样。一致性和不一致性在这里体现的非常好,如果深度学习可以在这个方面研究清楚,对于生物智能的Infrastructure是很有帮助的。

此外,从计算角度来讲,人工智能或者所有冯诺依曼形式的Computation是决定性的(Deterministic),一旦参数决定了,输出肯定是一致的,但是这个和日常的生物智能和决定过程很不一样,比如我今天心情好,就往左边走,明天到同一个地方,我往右边走。生物智能本身存在很大的随机性,这种随机性以什么形式体现?是噪声,量子效应,还是其他形式?随机性意味着多样性,意味着生物有更多选择进化的可能性。如果我们在生物系统上研究本质问题比较困难,那么在人工智能或者深度学习的系统上也许有可能实现。

主持人:生物智能启发AI需要有一个前提——大脑的结构和功能究竟是什么样子?从1948年提出第一个神经元模型MCP,到50年代提出的感知机模型,AI发展深受神经科学研究的影响。经过几十年的发展,认知神经科学已经积累了更多的东西。谷歌近期发表一篇文章指出,人类大脑皮层是目前最庞大的数据库,包含了数万个神经元,这些神经元由1.3亿个触突连接。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第9张图片

如果模仿大脑皮层一立方毫米的区域,虽然体积不到大脑的百万分之一,但这已经是非常海量的数据。

目前我们正在做这样的事,只有提供关于生物智能开源开放的数据库,才使类脑AI有更好的发展前景。与谷歌从生物角度切入不同,我们希望从生物数据库,神经模拟,类脑算法到认知神经等方面形成一个完整的多维度数据库。目前相关工作已经展开,请各位老师进行一个简单的介绍。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第10张图片

陈良怡:要想研究人的智能,我们就需要看到它的内部神经结构。比如电脑,如果不知道它的操作系统,就没办法把它和硬件连在一起,也就无法模拟出其中的运行过程。我们为什么要研究斑马鱼呢,斑马鱼有十万到一百万个神经元,用硬件连接组把它模拟出来,我们有可能在同一条鱼上看到各种复杂的行为,如果把行为和硬件连接一一对应,找到行为背后的变化关系——到底这个鱼在做什么,是学习还是记忆?在遗忘的过程中,哪些神经元的特性发生了变化,神经网络组成是怎样变化的,这些信息会帮助我们解析和发现智能模型中的关键性模块,也有助于我们建立真正生物脑启发的人工智能模型。

主持人:有了生物的神经数据后,下一步要做就是数字化神经元,也叫神经形态计算,那么,神经形态计算和传统的神经网络有何区别?

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第11张图片

杜凯:刚才提到谷歌发布的电镜数据,这方面我们和陈良怡老师也在合作,我们需要用他的生物数据进行验证——模型能否产生和生物类似的现象。电镜的数据,光学以及功能上的观察这三个方面紧密联系在一起,共同构成了一个完整的自我论证系统。我们需要利用这些数据来做大脑机器仿真以及探索生物智能。

第二个问题,与传统神经网络最显著的区别是,生物智能所有的信息处理都是基于动力学的,它带有时间t,而时间t恰好是在深度学习中没有的概念。深度学习在某种意义来讲更像一个现象模型,它假设一项任务可以瞬间做好,不需要过程,也不需要时间。而大脑中基于神经动力学的过程会衍生出很多不一样的信息。生物的智能是基于动力学的,这是我认为的最简单的回答。

主持人:刚才几位老师做了一个类比,我们可以理解成,要做类脑AI需要有硬件,而硬件之上还需要一个数字化的操作系统,让它动起来。但如果仅有操作系统,机器可能动不起来,还要有相应的类脑算法。那么类脑算法和传统的BP算法有什么区别?

余山:我们的开放平台希望有一系列算法层面的创新,启发大家从功能或者实现途径上对现有的深度学习框架做出一些改进。举几个例子,BP算法是目前最主流的学习方法,但我们不难看出它的局限。BP算法最成功的应用是前馈网络架构因为这一架构可以方便的实现BP算法要求的链式微分求导。

而生物大脑不只有一个前馈网络,而是有很多个,包括听觉网络、视觉网络、触觉网络,还有各式反馈网络,比如记忆网络、前额叶网络等等,信息在其间进行复杂的传递。这样多模块异构的网络架构可能适应于处理更加困难的任务, 但在这种情况下BP算法的使用可会遇到困难。因此,我们希望开发新的学习算法——不依赖网络信息流的解析就可以进行学习,以用于下一代、更复杂的模型。

此外,现在的计算机视觉看起来很强大,但在鲁棒性方面还存在很多问题。比如,计算机视觉依赖底层的纹理特征,只要稍作改变,识别结果可能就会发生变化。目前,吴思老师团队正在开发新的算法,尝试把前馈信息和反馈即与自顶向下的概念信息融合在一起,以克服这些问题。

还有刚才提到的,AI要想能够像人类一样沟通、交互,需要有新的知识表征方法,用活动来代替结构表征,那么如何去做?怎么设计网络结构?AI之间用哪种符号系统交互?这些都是我们目前在思考和努力的方面。

主持人:我们知道,深度神经网络背后有很多好用的工具平台,这也是它能够快速发展和应用的原因之一,比如PyTorch,大家不需要懂代码,只要下载、调参就能运行起来。相对而言,类脑计算涉及了各种各样的微积分,理解和使用难度都很大,这在一定程度上阻碍了该研究领域的发展。目前,吴思老师团队除了研究类脑算法外,还专门开发了一个类脑计算平台BrainPy,可以简单给我们分享一下。

吴思:我们课题组开发了一个类脑计算软件平台BrainPy,有两个原因。一是我们注意到这一轮人工智能大火在一定程度上是因为软件平台做的好,比如PyTorch、TensorFlow等,很方便大家上手。中国有一句话叫“工欲善其事,必先利其器”。这样的软件平台对个体研究及整个领域发展特别重要。

第二个是原因是,其实现在有很多好的计算神经科学的模型与方法可用于类脑智能研究,只是很多人并不知道,但要学习这些方法,可能存在很多成本问题,大家不一定愿意投入。基于这两个目的,我们做了基于Python的类脑仿真平台——通过简单的编程可以直接调用神经模型,实现神经计算。我们的总目标是希望,使用者可以把注意力放在科研上,节约学习神经科学的基础知识和动力学编程的时间。

目前,BrainPy仿真平台已经完成了基本框架搭建,包括十几种神经元模型,多种突触模型、多种经典的网络模型,实现了类脑视觉的一些基本功能。未来,我们希望它能够被更多人认可和使用,为类脑计算的发展做出贡献。

主持人:目前的深度学习更注重端到端的学习,不关心内部的运作过程。这在认知科学里被称为弱等价。换句话说,人和机器做同样一件事,双方执行的过程是否一样并不重要。但如果我们想更近一步,想做类脑的AI,就必须做强等价方面的工作——不仅要在结果上与人类相似,与生物智能类似,在内部的认知过程中,也要和生物系统类似。

从这个角度讲,我们的智能开源开放平台正在做类似于ImageNet的类脑AI网络,我们称之为CogNet,它通过任务本身定义数据集,并对类脑AI进行调试,以此来推进类脑AI的发展。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第12张图片

宋森:很多数据集普遍存在的一个问题是不能完全反映人类的认知。我们大脑中有两条通路,其中背侧通路决定着个体的行为,换句话说,背侧通路记录了人类从看到外部世界到做出相应动作这个过程中,神经元的活动。因此,我们希望收集一些真实的人类行为数据,比如抓取这个动作,我们可以通过录视频观察物体的几何形状,抓取的角度,或者用智能手套进一步捕捉手指抓取的姿势、手指的力度。我们还可以用3D打印不同纹理的物体,并观察人们在抓取过程中对物体重量的期望和实际是否一致。更进一步,通过这些数据,我们还可以测量人类在执行这些任务时,大脑神经网络的活动,这样相当于打开了黑匣子,能够对其中的神经行为和数据进行建模。

主持人:刚才几位老师简单的介绍了生物智能开源开放平台从最底层的神经元数据,连接、功能、结构、神经形态计算、类脑算法,以及相关工具,一个是关于类脑计算的平台,一个是调教类脑AI的数据集。我们相信未来人工智能将在社会发展中发挥更大作用。

目前,实现通用人工智能的路径有很多条,至于哪一条更快、更合适,我们现在并不清楚。基于此,从多个角度探索智能的本质,推进人工智能下一步发展,是我们当前必须要做的事情。未来我们将基于大数据、大模型、大算力,与产学界团队通力合作,互补启发,共同推进人工智能领域的发展。

接下来,我们请各位老师用一句话谈谈对AI发展的预期或愿景。

清华、北大、中科院六位专家同台论道:生物智能的本质与下一代类脑AI_第13张图片

宋森:理解AI如何将模块化和灵活性协同在一起非常重要,现在我们通过研究小动物的神经系统中全部神经元的整体活动过程,有望通过生物智能得到重要启发。

吴思:我从来没有把脑科学和人工智能研究分开,一个关注的是生物智能,一个关注的是人造智能,二者应该是相互促进、协同发展的关系。相信未来大脑的工作原理研究将为AI发展带来更多启示。

余山:我们经常说名师出高徒,有大脑这样厉害的老师在,类脑AI没有理由不成功。

陈良怡:分享罗伯特弗罗斯特的一句诗与大家共勉:树林里有两条路,我选择较少人走、但是可能有独特风景的那一条。既然作了选择,希望我们都能为了自己的初心和目标,在这个领域有所贡献。

杜凯:我代表天演团队想说,希望我们能够真正服务于脑科学和人工智能,为二者提供一个了解大脑运作过程的工具,以共同探索人类智力的边界。

你可能感兴趣的:(人工智能)