智源导读:在人工智能领域,以智源“悟道2.0”为代表的大规模预训练模型已经取得了非常大的成功,也代表了人类目前技术的最高峰。然后,在迈向通用智能的征途中,除了大数据、大算力和大模型之外,还有一大批科学家正在通过来探索生物大脑的工作机理,模仿生物大脑的认知范式,以求从生物大脑得到更多的启发,来寻找通用人工智能的另外一条路径。
在“2021北京智源大会-人工智能的认知神经基础”上,来自于神经科学、计算科学、认知科学等不同领域的六位科学家,通过跨学科的交叉讨论,分享了他们对于人工智能和脑科学之间相互错位的观点和思考,以期通过跨学科的交叉融合和相互借鉴,推动脑启发的通用人工智能研究。
刘 嘉|清华大学脑与智能实验室教授,智源首席科学家
陈良怡|北京大学分子医学研究所教授,智源研究员
宋 森|清华大学医学院教授,智源研究员
吴 思|北京大学信息科学技术学院教授,智源研究员
余 山|中国科学院自动化研究所的教授,智源研究员
杜 凯|北京大学人工智能研究院助理研究员
整理:智源研究院「人工智能的认知神经基础」重大方向博士后苏杰,张博
01
AI与脑科学的错位
1.1 神经元突触的复杂性与智能程度相关
刘嘉:首先我想请各位老师简单的介绍一下,他们认为脑启发的人工智能应该怎么做,和传统AI有什么区别。先请教一下杜凯老师,对于深度学习的神经元,我们通常都是将其看作简单的一个点,它的功能非常简单,而我们大脑的神经元却具有非常丰富的形态,这种复杂的树突形状在计算上会带来哪些本质上的区别?
杜凯:谢谢。首先我想提到一点,最简单的神经系统,比如一个线虫(C. elegans),它的神经元其实非常简单,真的就像一个点,经过很多年的进化,你会发现一个很有趣的规律,当一个生物越高等,它进化出来的神经元的树突也会越来越大、越来越复杂,但是神经元胞体的大小却几乎不变,这意味着在进化当中树突的复杂性一定以某种方式和智能程度是相关的,这种复杂的树突有什么样计算上的优势,在神经科学里研究了快20年,这个研究领域称为树突计算。
简单来讲,单个的神经元细胞因为有复杂的树突结构,它的计算功能更像一个网络,而不是一个点。最近的一篇Nature Neuroscience的文章进一步提出,因为复杂树突的存在,在大脑里进行feed forward和feed back计算的时候是分开的,这样使得我们大脑有一个很高级的功能,前向(feed forward)和后向(feed back)的传播可以同时进行,比如我们在学习的时候不需要把眼睛闭上,可以一边看东西一边学,我觉得这是和现在AI在本质上非常不一样的地方。
1.2 神经元连接的多样性、灵活性,是生物智能的关键
刘嘉:杜凯老师讲了一个生物的神经元本身就是一个网络,本身不是一个点,这种网络会给智能的多样性带来深刻的影响。不仅仅是生物神经元本身,我们还知道大脑的表征和连接结构都有非常丰富多变的特性和灵活性,而传统的AI相对来说比较简单,一般都是前馈(feed forward)神经网络。因此,和传统的AI相比,大脑神经元连接的多样性、灵活性,给生物智能带来更多的可能。那么在这种情况下如何实现计算?就这一问题我想请教一下宋森老师。
宋森:我们从神经科学的研究中发现,与现在的人工神经网络有很大的不同。越来越多的研究发现大脑里面有很多的细胞类型,这些不同类型细胞之间的连接,在发育的时候是由基因所决定的。这些先天的连接给之后的学习造成一个先验性,使得在这之上的学习变的容易了,这是生物神经元的多样性给我们的一个启示。
另外,如果大家去记录这些神经元的发放,会发现每次反应都不太一样,有非常多的变化。这种现象从好的一方面讲,它给我们带来了灵活性,作为对比,现在的神经网络,换一种情况的时候就可能会犯错误;但同时也给我们带来一个挑战,就是这个过程中到底什么是不变的,是怎么做计算的。
大家发现,局部的脑区虽然每个神经元的表征不断的在变,如果对整个神经元的群体进行分析会发现里面有一些不变的流形的存在,这种现象也告诉我们,哪怕不是在主动的学习时,可能我们的大脑也一直在不断优化这些表征,从而把信息更好、更高效的处理。
另外,大家还发现,当两个脑区之间通信的时候,它们用的代码,通讯的空间比单个脑区的放电模式少一些。如何把里面的内部表征、通信表征进行优化,也是大脑要考虑的一个问题。大脑通过这种比较模块化和多样性的方法进行表征,具有一些当前神经网络所采用的反向传播算法所不具有的好处,同时也是一个挑战。现在有越来越多的研究者在关心这些问题。
1.3 网络层面,人脑识别物体是多通路
刘嘉:我们可以看到在网络层面,大脑的神经网络不仅仅是通过单一规则或者简单规则来实现,而是动态的、通过不同脑区之间的交互实现的,这是在网络内部。但是我们也知道,真正的神经计算不仅仅是网络本身,你给它一个输入,问题就能解决掉了,还有大脑预先储存的先验知识,与输入共同交互才能产生,也就是我们通常所说的Bottom-Up,Top-Down两者之间共同交互,会形成一个动态的过程。而这个动态过程在传统的AI里是缺乏的,这对未来、下一步AI的发展究竟有什么影响呢?我们请教一下吴思老师。
吴思:神经计算和深度学习网络差别非常非常大,我今天谈一点,关于动态交互计算的问题。我们现在做深度学习网络,不知道大家注意到没有,比如说目标识别,我们是给深度学习网络呈现一个静止的图像,这个网络输出这是张三还是李四。但是我们神经系统从来不是这样的,静止图像是我们人为制造的一个幻觉,比如我坐在这儿,大家看向我的时候,从输入信号开始就是连续的光流,而不是静止的图像,这些光子到达你的视网膜再转换成电信号,然后一层一层的往后面传,这整个计算过程是一个动态的过程。
说的细致一点,在单个神经元层面上,每个神经元都不断接收输入信息,当超过一定阈值的时候才能发放,从单个神经元层面上我们就在做事件驱动的检测任务。这些神经元构成一层一层的网络,一层一层进行特征提取,这是深度学习已经模拟的,其实大脑还有一个根本不同,我们识别物体的时候不是像深度学习网络一样由简单到复杂的特征提取,而是有多条通路:
我们看到一个物体的时候,第一步会快速的从皮层下通路,对物体的整体的性质进行识别,这些信息到了高级脑区,和记忆、先验知识等进行融合,先猜测出来是什么东西,通过神经反馈再和深度学习模拟的那个慢速的腹侧通路进行动态交互,这个过程可能会经过几个回合,整个识别的过程都是输入和大脑内部的先验知识不断的相互比较印证的过程,而这个过程在目前是深度学习没有包含的,也是图像理解这个数学上不适定问题(ill-posed problem)的一个解决方案。
那为什么我们好像深度学习网络用的很好,我们没有包含动态的过程,由粗到细、由global到local的过程,也能做的挺好。我觉得这个问题Alan Yuille的报告中说的很好:现在我们的任务太简单了,如果只是做静态图像的识别根本不需要这个,但是如果真的要做一个能够与环境动态交互、很自主的机器人,这样的计算需求就会出现,那个时候就需要动态交互的过程了,这是我的一些个人理解。
1.4 学习层面,人与机器对知识的表征、传递和存储并不一致
刘嘉:刚才吴思老师提到了Alan Yuille的报告,Alan在报告中提到,现在深度学习依靠大数据,主要是通过“应试教育”,就是根据测试的内容针对性的训练来达到SOTA(state-of-the-art)。但是人类更多的是通过教育实现这件事,通过知识的传授,通过方法的把握来学习新的知识。这种人类和神经网络在获取知识和学习上的差异,可能对新一代人工智能的发展有一定的启发,这种启发究竟是什么?我想请余山老师分享一下。
余山:谢谢刘老师,我觉得今天这个场合就是一个很好的例子,我们坐在这里有四位专家给我们做报告,包括我们几位在这里一起讨论,我们自己包括在座的听众也学到了新的知识,以前不知道的现在知道了,以前不能做了现在可以做了,但是我们从没有见过一堆AI围在一起开个会、讨论一下就学会了新的东西,这是我感觉人类智能非常重要的一个方面。
现在我们说的比较多的包括单个AI智能或者群体的智能,可能比群体智能再高一个层面的是一种文明的智能。举个例子来讲,生物学家一般认为,如果有时光机器穿梭回比如说五万年前,如果把一个原始人的婴儿带到现代社会来,给他提供与现代人一样的环境的话,这个小孩长大之后是可以考大学的。几万年前的原始人和现代人的大脑的结构几乎是完全一样的,但是五万年前的人,他的能力、见识,对整个世界的认识比起我们来说差了很多很多。知识是人类几千年上万年逐渐积累起来的,随着文明的发展逐渐积累。
我们现在一个人类的婴儿不需要再花几百上万年从头去学,他可以在学校、教育体系里面花几年到十几年的时间就可以完成人类文明这么长的历史尺度积累下来的知识的获取,这是非常重要的人类智能的优势,如果说我们希望AI以后能够具有这样的能力,能够发展出类似文明的东西,很多AI可以各自去探索,可以积累之后,用非常高度集约的表征方式,互相传递知识,我觉得这会是对AI非常重要的推动,就像人类社会和单个人的差别一样。
但是想做到这一点还离得很远,我们现在人工智能系统特别是以深度学习为代表的一些系统,存在很多很多能力的差距,要想做到像人一样交流,传递知识,互相学习,一个很本质的问题是,现在知识的表征是非常单一的,在深度网络里面的知识都是通过结构来表征,通过在大量的数据集上进行训练,逐渐的把连接权重调好,比如训练怎么识别狗,调好之后“什么是狗”这个知识就分散在数以百万计的权重当中了。神经网络表征知识的方式只是通过很慢的结构化的学习过程来表征,但是在我们的语言能力中并不是,我们的知识是以活动的方式来表征的,比如我现在给大家说一个新的知识点,大家马上就记住了,但脑子里面不会立即有任何结构的改变。我们可以通过活动的改变来表征知识,传递知识,也可以把活动的改变逐渐转换成结构的改变,把知识存储下来。但具体到深度网络应该怎么做,我们现在还不知道,这是其中一个问题。
第二个问题,有了这样的一套知识表征的体系之后,还需要有某种符号系统,让AI之间可以相互交流,可以是语音、视觉等任何一种符号,作为不同层面知识的表征。今天也有演讲者说到Concept,概念很重要,这也是我们能够在抽象的层面做精炼的语言交流,做知识交互的基础。我个人觉得这是非常重要的,我们要让AI像人一样聪明,甚至发展出像人类文明一样的智能水平必须要考虑的问题。
1.5 把AI作为一个物种,研究智能的本质
刘嘉:余山老师提出一个特别精彩的假设,如果我们回到六千年前,把一个人带到今天,他是不是能在今天生存下去,成为一个AI的专家,这个假说很值得我们思考,关于知识怎么传递和传承的问题。
刚才几位老师讲了非常重要的观点,通过对人和生物智能的研究怎么启发AI,其实我们也可以从另外一个角度来看这个问题,AI可以作为关于生物智能的一种很好的模型,我们可以把它当成另外一个物种(species),另外一种类脑的智能,它可能对于人类理解我们自身的智能会有一些促进作用,特别是对于我们人类最基本的问题,什么是意识,什么是智能,这种本源的问题,可能我们站在自己的参照系里面很难去研究清楚,但是如果站在人工智能、神经网络参照系下,也许我们能够有一些理解或洞察。下面我想请陈良怡老师分享一下您的观点。
陈良怡:谢谢刘老师。听这个会我感觉学到了很多,第一个想法,大家看到大会最后一个报告,我觉得可以和GPT-3对照来看。我们现在有几十万亿甚至更大的人工神经网络,对应的我们可以模拟上百万个神经元,但是生命的系统本身存在的一个必要性,或者说它的复杂性是,小到一个十微米的细胞里也有成千上万的分子,大到组成一个神经大脑里上千万个神经元,百亿个突触这样的一个水平,它可以广阔超过于整个银河系里所有星系的数量,是非常大的、可以横跨整个空间和时间的尺度,这个系统超级复杂,意味着如果我们不是神,我们也许永远不可能同时看到这里面所有的东西,所以在这个意义上来讲,神经网络是给了我们一个很好的突破口,让我们可以去验证一些很基本的、原理性的东西。
比如对于神经网络,如果去做同一个任务,不同的研究者来做,他们的网络大体上架构是一样的,但是具体的层数可能不一样,参数也不太一样,但最后大家都能够得到类似的结果,可能你的是92%,我的是93%。对我们做生物的人来说,这里面有一个非常有意思的问题,为什么有可能大同小异甚至不同的架构,不同的参数的网络,最后能够得到差不多同等的性能,这里面最关键的组份是什么,最关键的元件是什么,根本性的原理是什么等等。
我们知道,深度学习一般认为是黑盒子,我们还没有理解的很深刻,每个人的模型得到大致相同的结果,但是也不完全一样,那么这里的一致性和不一致性到底体现在哪里,我觉得这是一个非常好的问题。如果深度学习能够在这个方面搞的很清楚的话,实际上对我们做生物智能的Infrastructure架构也会很有帮助,这是其中一个方面。
另一个方面,我也想提一件事,人工智能或者深度学习是从计算机来的,有一点和生物智能很不一样的地方。人工智能,或者所有冯·诺依曼体系的计算是决定性的,一旦参数决定了,输出肯定是一致的,但是这和我们日常的经验不一样,比如今天站在这个地方,突然心情有点好,就往左边走,明天到同一个地方,我就往右边走。生物智能本身就存在很大的随机性,这种随机性以什么形式体现?是以噪声形式体现还是其他形式体现?因为有了随机性就有了多样性,就有了多种选择进化的可能性。如果我们在生物的系统上研究本质的问题可能比较困难,但如果通过人造的人工智能或者深度学习的系统上能够实现也会给我们一些深刻的对本质问题的洞悉。
02
生物智能启发的AI研究
2.1 复现大脑“硬件”,并不足以了解智能本质
刘嘉:因为时间有限制,刚才几位老师从他们的角度对脑启发的AI,以及AI对我们理解生物智能的帮助做了一些阐述和分享,我们现在想进一步追问这个问题。因为我们说脑启发AI的时候必然有一个前提,就是我们想知道大脑的结构和功能究竟是什么样子,这样才能启发我们的AI。从1948年提出的第一个神经元模型—MCP模型,到50年代提出Perceptron(感知机)模型,都是深刻的受到当时神经科学的发展的影响。
经过这几十年的神经科学、认知科学的发展,我们其实已经积累了更多的东西。如果我们做类脑的AI有一个前提,那就是生物智能究竟长什么样子,我们首先有一个模板一个目标来进行模仿或模拟。智源生命模拟研究中心的马雷老师在报告中提到,谷歌刚发出一篇文章,关于人类大脑皮层目前来说最庞大的数据库,包含了数万个神经元,这些神经元有1.3亿个突触连接,模仿了大脑皮层多达一立方毫米的区域,虽然这只占大脑体积的不到百万分之一,但是已经是非常海量的数据了。
我们这个团队(人工智能的认知神经基础重大研究方向)在智源也想做类似的事情,我们认为,只有提供出来关于生物智能的开源开放的数据库,我们的类脑AI发展才会有更好的前景。我们和谷歌的不一样,谷歌主要从生物这一个角度切入,我们希望能够从生物数据库,到神经模拟,到类脑算法到认知、任务等等一系列,形成一个完整的、多层面的、多尺度的数据库。现在请各位老师简单介绍一下他们在这方面的一些工作,以及生物智能开源开放平台大致的框架。首先请陈良怡老师介绍一下BioDB,以斑马鱼为核心的工作。
A Browsable Petascale Reconstruction of the Human Cortex
陈良怡:我们刚才说过,实际上智能有不同的形式。有的老师同学可能会问,为什么不一上来,就像谷歌一样从人脑出发,因为我们要看人的智能。首先我简单评价一下谷歌这个工作,这是一个非常漂亮的工作,他们是用电镜看到了人脑非常小的一块结构。举个例子,比如这是个电脑,可以看到这个电脑里的线路图,但是不知道这个电脑运行什么操作系统。他有硬件(hardware)连接组,但是在电脑上运行什么样的软件(software)是不知道的。如果你并不知道它操作的软件的话,你其实是不能把它连在一起的,最后搞清楚比如人在做抉择的时候有什么行为的。
我们的想法跟他们有一点不太一样,我们做斑马鱼的原因是什么,斑马鱼有十万到一百万个神经元,它的硬件连接组我们可以做出来,而且有可能在同一条鱼上看到复杂的行为,这样就可以把行为和hardware对应在一起,来找到这个复杂的变化关系:比如说到底这个鱼在做什么行为,比如学习和记忆,在遗忘的过程中,哪些神经元,它的特性发生变化了,放电特性发生变化,神经网络组成发生了变化。这样就会给我们后面的模拟一个更真实的结果,而且有助于帮助我们找到,比如给它一个学习的任务,给一个干扰它学习、造成遗忘的任务,我们可以观测这个过程中的变化,有可能找到基本单元怎么变,而不是纠结于结构的细节中。因为可能有很多种结构,最后都能达到同样的功能,我们更想知道的是,作为一个模块它们是怎么工作的,这是我们的想法。
图片来源:BioDB,智源生物智能开源开放平台
2.2 生物的智能是基于动力学
刘嘉:正如陈良怡老师所说,我们看人脑的一小块,它中间有很多连接,但是我们缺少一种系统而全面的看法,而在算力允许的情况下,斑马鱼给了我们一个全景,反而是更好的一个动物模型,这也是我们现在正在做的。有了生物的神经学上的数据之后,下一步很重要的就是将其数字化,要做数字的神经元,而且是复杂的神经元,这个叫神经形态计算。现在我想请杜凯老师专门围绕神经形态计算和传统的神经网络的区别给大家再分享一下。
图片来源:智源生命模拟研究中心
杜凯:谢谢刘嘉老师。我们做精细的大脑仿真、精细的大脑模拟,刚好和陈良怡老师的工作,和谷歌发出来的工作,都能结合的很好,其实这是三部分内容。像陈良怡老师刚才说的,谷歌刚发布的电镜数据,我们也在做,它是死的,你看到的骨架是死的。我们怎么让它活起来,我们就是通过大脑仿真,要人为的把离子通道、突触,人为的加刺激,把神经元一整套的东西给模拟出来。
把这个模型模拟出来之后,如何确保我们模拟的东西是对的,很多功能上的东西,如何跟生物是一样的,在这个时候就需要和陈良怡老师这边进行合作,用他的生物上的数据进行印证,或者我们的模型上能否产生和生物上比较类似的现象。所以这三个方面:电镜的数据,光学、功能上的观察,还有模型,三位一体很紧密的衔接在一起,形成一个自我论证。这是第一个问题,是如何把这些数据利用起来的,通过对生物大脑进行精细仿真,探索生物的智能本质。
第二个问题比较难回答,和现在的深度学习有很多不一样,前面几位老师都说的非常好,我觉得最大的不一样就是,生物所有的处理信息都是基于动力学的,带有时间 t,而时间 t 恰好是在深度学习当中没有的一个概念。深度学习某种意义来讲更像是一个现象模型,比如要做一个什么事情,它会假设那个东西一瞬间就做好了,不需要中间有这么一个过程,有这么一个时间t在里面。我们大脑是基于神经动力学的过程,它就会衍生出很多不一样的,比如刚才提到的,在树突模型上,我们的前向(feed forward)和后向(feed back)这两个过程能同时进行,它的本质是因为什么呢,除了树突以外,还有一个是因为,在大脑内部的信息都是波形,如果两个波形相遇的话是能交叉过去的。所以它的基础是一个波,如果它不是一个波,我们就很难去处理这个事情。一个最根本的区别,就是生物的智能是基于动力学,这也是我认为的最简单的回答。
2.3 设计非 BP 算法
刘嘉:好的谢谢。我们刚才看到,陈良怡老师讲的是,如果做一个类比,可以理解成是一个硬件,我们要做类脑AI的硬件;刚才杜凯老师讲的更多的是在硬件之上有一个操作系统,能够让它活起来、动起来,而且是数字化的。但我们仅仅有操作系统,机器是动不起来的,还需要有相应的应用在上面,打个比方的话,相当于需要有一些类脑的算法,这和传统的BP算法是有区别的。那么类脑算法究竟有什么特点,应该怎么做,请余山老师跟大家分享一下,这也是我们生物智能开源开放平台的很重要的一部分。
余山:好的,谢谢刘老师。我们这个开放平台希望有一系列算法层面的创新,启发大家从功能上或者实现途径上对现有的深度学习的框架做出一些改进。举几个例子,比如刚才刘老师提到的,现在主流的学习方法是误差反传,BP,甘利俊一(Shun-ichi Amari)教授实际上是最早提出这些算法的专家,现在变成最最重要的深度学习的方法了,现在看起来也非常非常的成功,但是我们也不难看出它的局限性在哪里。
比如说现在BP算法特别成功的例子就是深度学习,虽然资源非常多了,甚至有几万亿参数的大模型,但相对来说这种模型结构比较单一,基本上都是以前馈网络为骨架的模型。这样的模型可以让你使用BP算法,因为BP算法需要做链式求导,你要把它的信号传递的过程清晰的梳理出来才能做链式的微分求导。对于前馈网络来说可以做,即便层数多一点,或者神经元数目多一点,我们可以做这个事情。
但是如果我们设想,我们的大脑不是一个前馈网络,我们有很多很多个前馈网络,有听觉网络、视觉网络、触觉网络,而且我们还不光有前馈网络,还有反馈网络,记忆网络、前额叶网络等等,所有这些混杂在一起,一锅粥,你就很难在这样一个多模态的、异构的网络中用这个BP算法,没办法把信息传播的路径梳理出来,再倒着回去做链式求导。
如果我们假设,有的任务就是如此复杂,就是需要用多模块的异构网络来完成,那么可以预见BP算法就会遇到很大的挑战,很难用出来。在这种情况下,可能会有什么样的算法,不依赖于链式求导、很清晰的结构解析,只需要知道比较方便获得的信息就可以让网络计算,可能不见得有BP算法这么好,但至少在很大程度上能够接近这个算法的学习能力,这是一个例子,我们正在考虑怎么设计非BP的算法,目的是希望为了下一代、下下一代大模型、更复杂的模型它们能够去学习。
另外还有,包括吴思老师做了很多这方面的工作。Alan教授提到,现在计算机视觉(CV)看起来貌似很强大,但是有很多很多问题,有很多层面都存在可以改进的方面。其中一个问题就是,现在计算机视觉更多的依赖于底层的纹理特征,他给了一个例子,只要把底层纹理特征做一个改变,就能把这个程序骗过去。怎么克服这个问题?吴思老师团队正在开发新的算法,把前馈的信息梳理过程和反馈的,自顶向下的物体识别的概念融合在一起,希望能够克服现在计算机视觉的这样一些问题。还有如果我们希望AI有语言、能够交流,能够受教育。那么怎么去做这个事情,就要有新的知识表征的方法,不是在结构里表征,而是在活动里表征。怎么做这个,怎么设计网络结构,能够让它用活动来表示知识;怎么样设计一套符号,能够让AI之间可以通过符号进行通讯,这些就是我们在思考、在努力的一些方面。
2.4 开发计算神经学工具
刘嘉:好,谢谢。我们知道深度神经网络的发展,已经进入到千家万户,像我的学生,学心理学的,现在也可以拿神经网络来操练。它的背后就是因为有大量的非常好的工具平台,比如说有PyTorch这种,这是促进神经网络、深度学习非常重要的工具。但是对于类脑计算这块,因为一上来就是各种各样的微积分,这个处理起来特别的困难,对于这个领域的发展也有非常大的阻碍。吴思老师除了在类脑算法这方面做了很多研究之外,他们团队还专门开发了一个关于类脑计算的平台,叫做BrainPy。BrainPy有什么样的功能、要想达到什么目的,我们来请吴思老师说一下。
吴思:我们课题组开发了一个类脑计算的软件平台,叫BrainPy,我先讲讲我们当时做这个东西有两个原因。第一个原因就是我当年是Amari的学生,做机器学习的,我注意到这一拨人工智能能够那么火,有很大的原因是软件平台做的好,像PyTorch、TensorFlow。但是20年前,那时多层感知机(multi-layer perceptron)没有那么火的原因我觉得就是软件平台没有做好,没有普及下去。但是从支持向量机(support vector machine)开始,就有这样的公用软件开始出现了,我想这可能也和互联网的发展是相关的。中国有一句话“工欲善其事,必先利其器”,这样一个软件平台,对个体的研究、或是对整个领域的发展都特别重要。
第二个原因,我现在主要是做计算神经科学,我过去在Amari组里是做机器学习的,我当时是想从生物系统学习,看生物智能怎么工作,再转到计算神经科学。在计算神经科学里面,其实现在已经有很多好的模型,可能做类脑智能、做机器学习的人并不知道,但是这些模型如果要立刻介绍给大家用的话就有很高的门槛,可能需要学习神经科学、需要学习动力系统编程,大家可能会气馁、不愿意做。
基于这两个目的,我们做了BrainPy仿真软件平台(相关链接:https://brainpy.readthedocs.io),基于Python开发,把所有的神经元动力学的模拟过程全部给藏了起来,大家用的时候直接在上面非常简单的编程就可以。目的是让使用者把注意力放在科研上,而不是学神经科学基础知识和动力学系统编程上。
目前这个平台已经完成了基本的结构框架,也包含了十几种神经元模型、树突模型和网络模型,也有一些视觉的基本计算功能。我们比较有信心的说,比神经科学领域的其他一些软件比如neuron、brain2等具有更方便、更快速等优点。我们的长远目标是希望这个软件平台大家能广泛的使用,因为也是我们国内自主开发的软件平台,如果不做复杂的问题,只做算法研究也比较方便。欢迎大家使用,希望这个软件能为类脑计算的发展做出贡献。
2.5 打造类脑AI的 “ImageNet”
刘嘉:好,谢谢。我们刚才讲到要推动这个领域的发展,除了它的软件平台之外,我们知道Alan教授在其报告中也多次提到李飞飞以及她做的ImageNet,这个对于深度学习的发展是功不可没的,特别是对于怎么调试系统、怎么测试,相当于提供了一个非常非常精准的学习环境。但是对于类脑计算或者大脑启发的AI来讲,它显然是不够的。它更多的是关心所谓的端到端学习,内部发生什么事情它并不关心。这在认知科学里面叫“弱等价”,也就是说人和机器可以干同一件事,但是它们的内部过程是不是一样的其实并没有关心,这叫弱等价。包括图灵所提出来的图灵测试也是一样,我们看行为上大家能不能达到一样。
但是如果我们想更进一步,我们想做类脑的AI,我们必须做一个“强等价”方面的工作,也就是说它们不仅是要在结果上和人类似,或者和生物智能类似,同时要在内部的认知过程中,也应该和生物系统类似。因为他们有类似的实现层,相同的神经元,精细神经元,有相同的输出,最重要的是中间的过程,它们的算法层、认知过程应该也是类似的。从这个角度讲,我们的智能开源开放平台也在做一个与ImageNet类似的、用于调教类脑AI的网络,我们把它称为CogNet—就是由认知任务本身所定义的一套数据集,用来对类脑AI进行调试,这样能够推进类脑AI的发展。请宋森老师简单介绍一下这方面的工作。
图片来源:CogNet, 智源生物智能开源开放平台
宋森:现在的数据集有很多问题,不能完全反映人的认知。尤其现在比较缺乏的,是对我们大脑背侧通路的相关研究。我们大脑里分成两个通路,腹侧是进行物体识别等,但是背侧通路在某种意义上更加重要。它指导我们怎么去做动作,哪怕是小的婴儿也能够理解,比如外界的世界是怎么回事。所以我们的想法是收集一些人在看外界世界,同时做出动作的过程中的数据集—可以录他抓取动作的视频,他看到的是什么样子,这个物体长什么样子,我们可以看他的眼睛在观察这个物体的哪些部位,什么地方是重要的,手的姿势是什么样的,以及我们还可以用智能手套看他抓的时候用了多大的力;还可以3D打印各种不同的物体,在上面可以用不同的纹理,我们可以看到人的期望是什么,比如他可能根据他所看到的,认为这是一个很轻的东西,然后拿起来的时候发现其实是个很重的东西或者不一样的时候,你会发现他用的劲儿大小可能有些不正确的地方。
根据这些我们能够逐渐研究出他大脑里面对外界建立的模型到底是什么。另外再往下走,我们可以提出让人在做这些任务的时候观察脑子里的行为,或者在动物上看它们做任务时对大脑进行记录,想办法打开这个黑箱子,看里面的神经的行为能不能进行建模。
03
认知神经学者眼中的 AI 未来
刘嘉:刚才几位老师简单的介绍了一下我们生物智能开源开放平台,从最底层的精细神经元的数据、连接、结构、功能,以及到神经形态计算、到类脑算法,以及支撑他的两个工具,一个是关于类脑计算的平台,一个是调教类脑AI的数据集。我们希望这个数据集是开源开放的,我们希望做出来之后供社区免费、公开的使用,大家可以用它进一步开展关于类脑AI的研究,促进类脑AI的发展。
我们觉得未来有多条路径可以实现通用人工智能,我们坚信人工智能将来在社会里会起到更大的作用。但是究竟哪一条路更适合,哪一条路更快,哪一条路能够让我们实现真正的智能,我们现在并不知道,因为我们的未来是不确定的。正是基于此,我们觉得从多个角度探索智能的本质,推进人工智能的下一步发展,也是我们每一个人现在正在努力的方向。我们也在和基于大数据、大模型、大算力的团队也有充分的合作,我们互相的互补,互相启发,共同推进关于人工智能这个领域的发展。
虽然我们还有很多话想说,因为时间关系,最后我想请各位老师用简单的一两句话,来谈一下你对未来AI这一块发展的预期或者想法,或者理想、愿景是什么。
宋森:我觉得要搞明白AI里怎么把这个模块化和灵活性协同在一起是非常重要的,现在有希望在小的动物上,因为可以看到它的所有活动,它可以做多种活动,有可能开始搞明白生物怎么解决这个问题的。
吴思:在我眼里,我从来没有把脑科学和人工智能区分开,我觉得两个都在搞智能,只是一个关注的是生物大脑,一个是人为制造的大脑,两者应该是相互促进的。我们今天可能更多强调的是脑科学对AI的帮助,其实AI对脑科学也有帮助,因为AI相当于一种关于大脑工作原理的很好的一个实例工具,两者可以协同发展。
余山:我想起来我们做类脑AI的人的一些情况。我们经常说“名师出高徒”,我们向大脑去学习,我们有一个非常非常厉害的老师,没有理由不成功。
陈良怡:我就用一个诗人的一句诗,是我们的一位硕士生同学在他答辩的论文里写的一句,跟大家共勉。罗伯特·弗罗斯特的一句诗:“在一个林子里,有一条很多人走过的路,有一条很少人走过的路,我选择了走那条很少人走过的路”,我觉得这也是每个人的选择,每个人的创新(innovation),和你希望为这个领域做的贡献(contribution)的原因之所在。
杜凯:我代表我们年轻的“天演”团队说一句,我希望我们能够真正的服务于脑科学,为脑科学提供一个了解大脑如何运作的工具,同时也能给人工智能提供一个特别好的工具,去探索人类智力的边界。
刘嘉:希望下来之后大家如果有更多的问题欢迎和我们几位老师联系。我们这个领域需要更多的新鲜血液加入,如果大家想做这方面的博士、博士后等等,我们热烈的欢迎你们加入我们,使我们这个方向变得越来越强大。像刚才陈良怡老师说的一样,现在走的人还比较少,我们也希望将来走的人越来越多!
欢迎加入智源社区「认知神经基础」交流群