【报告笔记】【CCAI 2016】蒲慕明院士在2016中国人工智能大会中所作报告——脑科学能为人工智能带来什么?脑科学对人工神经网络结构设计的启发

题目:脑科学能为人工智能带来什么?

    • 题目:脑科学能为人工智能带来什么?
    • 前言
    • 原文链接
    • 阅读目的:
    • 以下为报告内容:
    • 总结特性:
    • 启发总结:

前言

蒲慕明院士是一个很有故事的大佬,之前看过他的一些事迹,敬仰已久~
今天学习的是蒲慕明院士在2016中国人工智能大会中所作报告~

原文链接

原文链接

阅读目的:

现在的人工神经网络,应用最广的应该快是卷积神经网络了,这种网络结构和生物脑的网络结构设计,有哪些异同呢?
我们可以在生物脑中借鉴哪些有用的设计呢?

以下为报告内容:

加粗的是我认为重要的idea~

我非常高兴今天有机会来参加这个盛会,今天想把这个神经科学里面的一些进展和我个人的一些看法给大家做一个报告,希望对我们人工智能未来的发展有好处。

首先就从最简单的说,人类的神经系统有两大类,有中枢神经系统,其中包括大脑、小脑、脑干、脊髓,还有外周神经系统,主管知觉还有各种内脏自主神经系统,我们所说的脑科学主要是专注大脑,这个大脑就是我们的专注脑科学的部分,所以脑科学是神经科学的一部分,脑科学所关注的是大脑,而大脑最主要的一个部位就是大脑皮层,这是我们人类最发达的一个部位,大脑之下的很多结构就是皮层下结构,是比较早期出现的,从猴到黑猩猩到人,皮层的结构大大的增长,这就是人类认知的主要来源。

我们脑科学所关注的就是皮层的各种功能,他是怎样产生的,现在已经知道在各个皮层的各个部位主管各种功能,就是功能是分区的,你哪个区域受损,比如语言区受损就不会说话,视觉皮层受损就看不见,所以这是对脑公层分区多年来非常清楚的理解,但最近我们可以从活体正常人的大脑用各种脑成象方法来看,比如正电子成象,葡萄糖注射到大脑里面,活动高的地方就有信号,比如被测者看几个字就发现脑的后部有活动,这是我们所谓的视觉区域,听几个字就听觉区有活动,我们让他讲几个字,语言区有活动,就是语言区,但是现在令人吃惊的是不听不看不说,让他想几个字呢,我们看到的是什么呢,是到处都是活动,这就表示说这个简单的思考是牵涉到大脑的各个部位都有活动,到底为什么这样子我们还不清楚,所以简单的思考对脑科学到底怎么解释,我们还是不清楚的。

为什么不清楚?我们可以看一个简单的实验,看不到大脑神经细胞的活动,做一个简单的实验,用斑马鱼,它是透明的,所以大脑里面十万个细胞每一个神经细胞的活动都可以观察,比如把斑马鱼放到显微镜上面,头部固定,尾部还可以摆动,有各种逃跑行为,给他一个闪光,尾部一动就是要逃跑,这个时候我们看头部固定的时候里面的活动,给一个闪光可以看里面的活动,可以同时观察成千上万的神经原,每一次闪光了,出现的时候有更多的活动,但是没有闪光的时候也有很多活动,就自发活动,这什么意义我们不知道,是鱼在思考还是在做什么,因为我们知道人就是在不做任何东西的时候,你看脑成象有自主的活动,就是自发活动,自发活动的意义是什么,也是不清楚的。

这都是神经系统里面现在的大问题。

为什么这么复杂呢,我们把神经系统切片,看皮层什么结构,里面是密密麻麻的神经细胞,左边是用染色神经细胞的细胞核,几乎是紧密的排列的,假如只染色少数神经细胞,只有少数细胞看到形状,你就看到事实上是有很多网状结构,这个网状结构就是所谓的神经网络,就是神经系统里面进行功能都是靠这个,人的大脑有上千亿的神经细胞,我们叫神经元,通过连接,数目到了百万亿的连接组成一个复杂的神经网络,进行各种感知运动思维各种功能,神经元是有结构的细胞,有输入端也有输出端,输入端像一个树枝一样,输出端是一个轴突,输入段是一个树突,最先进的观察神经元网络的成象方式,现在做一个演示,这是斯坦福大学的实验室做的,一个小鼠的大脑,用荧光染色少数细胞看神经元,所以现在因为是少数细胞,所以你看到单一神经细胞的结构,这是真实的状态,这个大脑让他透明化,所以可以看到内部,这种情况下看到的大脑里面结构有规则又有非常复杂的网络,这个有少于百分之一或者千分之一的细胞被染色到,皮层上面的结构是排列比较整齐,下面的区域是另外一种格式,这样子的观察是我们现在最先进的看神经系统内部网络结构的方法。

我们刚才看到的叫做介观层面,但是很复杂的原因是什么呢,因为我们这个神经细胞种类很多,至少几百种,可能上千种,现在小鼠的大脑里面有多少种细胞,还是脑科学的重大任务,要搞清楚多少种细胞,每一种细胞反应不一样,功能不一样,搞不清楚,所以介观层面不同的神经细胞网络是什么结构,我们要搞清楚,用电子显微镜可以看到更多的微米到纳米阶段,看到细胞之间连接,看到细胞之内的结构,这也是看的更清楚更复杂,所以现在最关键的还不是看微观,是看介观层面,从脑成象可以看到宏观的层面,很漂亮的连接图谱,这些图谱都是神经树,红的线各种颜色的线代表成千上万的神经轴突形成的神经树,不同细胞功能不一样,光有宏观的是绝对搞不清楚大脑结构的。

即使我们知道介观层面的结构,完全知道了,也不能够理解,我们要理解功能,这里面到底怎样传递信号,所以理解这个功能信息处理和功能机制是神经科学的主要内容,在过去一个多世纪,在神经元这个层面如何编码储存信息,我们知道的比较清楚,这一连串的诺贝尔奖得主,2神经信息是由脉冲的频率和时序决定信息,而不是脉冲的幅度,脉冲是一个电信号,脉冲是一个毫米的波动在神经细胞里,他是神经信息的单位,这个脉冲传到另外一个细胞的过程通过传递,这个也是一个电活动,而是一个小小的电位变化,产生的原因是因为释放化学物质,使下一个细胞有电位的变化,这些都是诺贝尔奖的得主,对各个区域每一个神经细胞可以做单细胞的记录,记录对某种信息的反应,发现各种细胞有各种不同的反应,两年前诺贝尔奖发现空间信息,动物在某一个环境位置的时候某一些神经细胞就会放电,这个都是对单一神经细胞的编码储存信息的了解,但是这些细胞为什么有这样的反应,局部的环路跟长环路造成的信息,他是怎样来的,我们就有一些理解,但还是很不清楚的,我们对这个神经信息如果经过环路产生感觉知觉情绪这些基本功能,都是有一些了解,但还是很粗浅,对于思维抉择意识语言高等认知功能是极为粗浅的,所以脑科学还是20世纪初期的物理学一样,还是刚刚开始,还没有真正的突破。

给大家讲这个信号在神经系统怎么传导,一个简单的演示,这个信号是我们说绿色式的血管,在大脑里面各种神经元连成网络,电信号在上面传播,这个电信号不是电子,而是离子传播,传播速度比较慢,传播是靠离子从膜的内外通过,造成模上电位的变化,造成了一个脉冲,这个脉冲向前推,造成了传导,他速度就比较慢了,每秒钟一米到几十米的速度,跟声速差不多,这个信号到了终端的时候不是直接传到下一个细胞,而是通过小泡释放化学物质,产生离子流动造成电位变化,这些离子流动是非常复杂的过程,我们叫做化学突出传递,而不是电直接传过去,每次释放出来的物质,这些物质可以是兴奋性的也可以是抑制的,这个物质传到下一个细胞,打通了通道可以让正离子进去就使下一个细胞兴奋,加入是负离子是抑制的,这样的话把一个信号可以从正的变负的,使信息处理有更丰富的内容。

另外一点,在每一个释放多少化学物质,有多少接受化学物质的分子的量,都可以改变,使这个突触变成一个非常可塑性的,效率可以改变,效率改变突触可塑性就是神经系统里面的信息处理的非常重要的关键,也是我们说认知学习主要关键,化学物质在突触产生的电信号是什么,我们叫突触电位,兴奋性突触电位是使突触后的膜电位有去极化下降,假如下降程度超过一个预值就发放脉冲,就是神经要发出的信号,但有些物质产生超级化,就是使膜电位变的更高就是相反作用,一个神经元接收到数百个甚至上千个输入,我们叫做EPSP跟IPSP的输入叠加之后,决定最后是不是超过预值,超过预值就发放,发放之后就信号整合,就传到下一个神经元了,所以这个神经元的信息整合就通过单一神经突触整合。

环路,神经网络神经环路,我们可以这样很简单的理解,网络是整体的神经连接整个网络,在网络之间有很多做各种特殊功能的路径途径,这些途径就叫环路,神经环路的意思就是神经元上特殊功能的网络,是轴突与树突形成的,在这个网络里面抑制性神经元有关键性作用,这一点要强调,网络有局部的网络,就在局部区域的网络,局部网络就是在一个局部区域神经信息来了,比如最简单的反射,敲一下膝盖脚就会有反射,从肌肉来的感觉信息传到脊髓,然后刺激了脊髓里面的运动神经元,使我腿部上面的肌肉收缩,但是上面的肌肉收缩下面的肌肉要放松,通过局部环路又通过一个抑制神经元,使支配下面肌肉的肌肉下降,这两个配合在一起就产生了一个协调的作用,这个脚就动了,所以这个局部的网络产生的作用抑制性神经元产生的作用是很重要的在局部网络里面,长程网络是长距离的控制,可以控制我的脚不动,为什么呢,因为大脑已经给了一个信息,抑制所有的活动,使我反射不能造成,所以这就是长程控制自主的控制,有两种不同的环路作用。

过去50年来我认为最重要的理解,对大脑的理解就是神经可塑性,感觉运动认知行为发生的时候的各种相关的活动,有一个作用,这个作用是改变神经元或者突触功能或结构的修饰,这种修饰就叫做可塑性,一旦修饰之后,这个神经系统变成另外一个状态,这个状态就是有了记忆有了学习有了认知行为的改变,所以可塑性可以说是所有认知行为的基础,要理解可塑性来源,就是过去这50年最大的进展。

这个进展从什么时候开始,60年前,赫伯提出一些假说,是加拿大的一个心理学家,电活动怎样造成神经系统变化,提出一个非常明确的假说,我们假如有同步的神经细胞两个细胞里面有同步电活动,之间的突触连接就要加强或者稳固,假如不同步,这个突触就削弱或者是消失,这种概念很简单的概念,我们叫做赫伯学习法则,一起发放的神经元连在一起,就是一个简单的原则,那我们说一起发放什么呢,比如这两个神经元他有电活动是一样的,都有同步的电活动在两个神经元活动,他们之间的突触就开始增强,那假如这个神经元跟另外的神经元不同步,这个神经元有活动他没有活动,或者被抑制,他之间的突触就要下降,就简单的这么一个原则,这个原则呢可以有各种学习的规律,他这个说法呢在70年代、80年代得到了实验证据,这个证据也是我们神经科学重大进展,就是发现了电活动可以造成突触的长期强化或者长期弱化现象,所以今天LTP、LTD,LTP跟LTD是可塑性的关键这几个概念得介绍一下,要不然下面看起来就很难受:ltp:long-term potentiation 长时增强;ltd:long-term depression 长时抑制,参考链接:脑的高级功能:学习和记忆,百度文库22页),突触可以强化或者弱化,假如你用高频刺激,刺激一秒钟,刺激前突触电位是这么一个幅度,刺激之后一秒钟刺激之后突然上升,这上升的幅度可以维持长时期,就是长期强化现象,低频刺激,结果是相反的,效率是下降的,变成弱化现象,为什么这样子,赫伯说高频刺激的时候,他产生的突触电位可以叠加,所以突触后也被激活,所以他叫LTP,但低频的时候,他每一次都不能够激活,突触后就没有活动,所以他不同步,所以他就削弱,这个学习法则很简单,就这么一个解释。

这个突触是什么状况呢,他其实是产生在轴突终端的一个小泡跟树突产生的一个突起,这个叫树突棘,这个突起在一般的神经细胞上面有成千上万个,至少几百个,这些突触就是表示说不同神经元来到轴突的输入,但不是都是有电活动,电活动加起来超过预值,神经元整合就放电,就给下一个细胞发出信号。

这个结构很有意思,就是刚才说产生LTP长期强化现象之后培养的海马脑片切片看它的活动就有很多树突棘,你看这个树突棘在LTP在上升,高频刺激,在这个刺激的区域发现有新的树突棘产生,就突起突然出现,在LTP产生之后几十分钟之内有新的构造出现,表示说你这个电活动造成了突触的功能增强,可能包含了新生的突触,新生的连接,这是在发育过程中的现象,但是又发现突触前的轴突的小泡跟突触后的树突棘这个可以长大和缩小,还可以萎缩,萎缩就是表示最后可能消失,表示又减弱,所以这个轴突跟树突之间产生的,他的构造可以改变,功能可以改变,改变传递效率,也可以产生新的突触增强功能。

最近实验室发现在小鼠活体进行学习的过程中,在几天之内产生新的突触,这个突触比如说这里我们看到突触前,我们标记了突触前的轴突跟突触后的树突,这个学习之后突然产生了一个新的树突棘,有了树突棘在那里,突然产生了一个新的突触前的小泡产生,也是一个新的轴突接触点,这种新的突触的产生是在成年的大脑里面也在出现,但是这个出现的频率是远小于发育过程中的。

(看到这里,我不禁想说,真的看不太懂哎,报告的语言逻辑,好像也不是很适合阅读,难受)

赫伯非常了不起的假说,可塑性的基础是强化,突触强化或者弱化同步活动造成的,他是要理解感知记忆是怎么产生的,他的感知记忆他有一个假说,他的假说是什么呢,就是说我们这个同步的电活动在这个大脑里面由于感知信息来了之后,强化了一群神经元之间的联系,这些联系之间的强化特殊一群神经元的强化就代表感知记忆的储存,这是他的假说,这个假说什么意思呢,就是你储存记忆就储存在有活动有脑活动的时候那些神经元,这个假说很有意思,可以解释很多现象,比如我们对于一个圆圈的感知,每一个细胞都产生,每一段都产生一个神经元的激活,他都是因为这个圆形刺激不断出现的时候,有同步活动,这个同步活动使他们之间连接增强,所以我们就建立了一个赫伯细胞群,这个细胞群建立之后就他之间连接很强,连接非常强之后,这个细胞群之间关系不一样,有交互作用,理解他们之间是相关的,在这之后只要部分信息刺激他,你就可以通过这部分信息,因为有强连接,使整个细胞群开始重新有活动,所以部分信息可以提取记忆的过程是什么呢,就是部分的刺激造成了整体细胞群的活动。

(我记得之前看过,卷及神经网络的原理和人的视觉认知很像,感觉都是普通的神经元,如果结构设计不一样,产生的效果也会很不一样呢)

简单的细胞群的假说可以进一步的扩充,我说我们每一个人都记得祖母的面孔,因为他的特征都在我们的大脑里面,所以细胞群他是造成他们之间连接的增强,所以细胞群建立之后呢,我们现在只要看到部分信息,看到祖母的眼睛就完全回忆起整个面孔,细胞群,我们说每一个细胞群,这不是一个细胞了,每一个细胞群可以相互之间建立一个超级细胞群,这个概念叫做细胞集群的集群,是一种嵌套的可以编码更复杂的感知信息感知记忆,同时出现的一个面孔,但是我们知道我们还有一个概念,我们对祖母有一个概念,不是面孔,我们记得她的面孔,刚才讲超级细胞群,对祖母还有各式各样的印象,各式各样的信息,包括名字故事、穿的衣服,每一个都是一个超级细胞群,这些细胞群连在一起,因为祖母不断出现,超级细胞群之间也是同步激活,建立祖母的概念,整个概念就是一个祖母的概念,这是一个假说,这个假说就是代表概念的各个成分的细胞集群是分布在一个脑区,概念的形成过程是细胞群之间同步放电造成长程环路之间的强化,这个概念怎么产生的,看到祖母的名字就想起祖母的面孔,想起其他的东西,部分的集群的放电就引起了整个概念的放电,造成整个超级细胞群超级超级细胞群的激活,这个是一个假说,我认为是最好的假说,目前没有人证实,我们也在努力做,检测的过程需要对大量神经元电活动进行观测,进行调控,来决定到底是不是正确的。

赫伯的假说有一个转折,在20年前就像刚刚讲的人工智能发展一样,每隔一段时间就有一个转折,这个转折就说原来赫伯假说里面的学习法则是同步,什么都是同步,这个同步里面什么叫同步,他两个放电顺序是怎样,时间是怎样,没有描述,所以在很多实验,包括实验室的实验,说明有赫伯学习假说应该修正,修正成为一个时序的假说,突触前跟突触后的神经元的先后,就是突触前要是比突触后先有电活动就是强化,就是LTP,假如反过来就是LTD,所以STDP就是这么来的。我们实验室最大的贡献就是把这个时间窗口定下来了,就是你突触前的活动必须在突触后的活动之前的20个毫秒之内产生,他就可以对突触后的激活有贡献,因为他是一个去极化,有贡献就造成LTP,假如突触后已经有了一个放电,然后输入才进来,这个突触没有贡献,你就得到一个弱化,所以有贡献有强化,没有贡献的就弱化,这样子就基本上颠覆了早期的同步强化,不同步才是不强化,不同步就在这个地方,时间很远(久远)的地方没有作用。

这跟奥林匹克比赛一样,奥林匹克比赛的人能力都是相当,都是有些快有些慢,跑的太快的不参加比赛为啥?好奇),跑的太慢也没有资格比赛,真正比赛的都是速度差不多的,速度差不多谁赢谁输有竞争,这一群竞争就是比其他的要快的,其他的快的就强化,比其他的弱就弱化,这是所有竞争性的现象,都是有这样的一个规则,大脑的突触改变也是这样子的。

这个赫伯集群有时序性的假说,这些细胞群都是连在一起开始,但是我们现在假如说给一个有序的刺激,这个刺激就是说从前到后他是不断的,没有反向的,这个结果是什么呢,对这个朝下的连接都增强,因为朝下游的连接都是突触前发放,就是LTP,反过来都是LTD,有时序信息就有神经集群里面造成的一个有方向性的强化,这个强化结果之后就建立这个集群有定向的集群之后呢,你只要有部分信息比如在起始区给他一个信息,因为通过强化连接,就可以激活这一群细胞,比如这个做音乐学习,音乐的话只要放前面几个字符,他就后面就出来了,学习音乐网络就是用的STDP,很快就可以出现,这个就是时序信息的好处,在大脑里面有没有这个机制?

事实上是有的,在小鼠大脑里面用电极进入皮层里面的细胞群的反应,有序的比如在上面在试验里面用一个圆圈的球扫过这些细胞群,使他们产生反应,这个细胞群的反应不断的产生,这些细胞群的反应是有序的,先被激活的先反应,每一个圆圈代表细胞群的电活动,不断训练之后,这些大脑里面的连接结果就是说你只要给一个信号,你比较起始初的信号,就会造成连续的放电,起始区跟重点区两边比较,哪一个造成放电,就在起始区造成放电,有序放电可以产生,所以这就是有序信息在大脑里面的储存,比如16个电极进入细胞群的电活动,开始训练之前一个闪光引起不了什么有序放电,训练过程中这个电极先激活先放电,后激活后放电,这就是有序细胞群放电,训练一段时间再用起始点刺激,很多情况下可以看到有序放电,比如这7个尝试之下有5个有序放电,比如有记忆了经过训练之后这个细胞群大脑的细胞群已经记忆了时序信息,这个时序信息就是通过STDP这个方式来学习。
(这段的意思应该是,训练过程中,让细胞时序记忆刺激过程,等测试的时候,发现放电竟然也是有时序性的?)

下面这段非常重要!!!

发育过程中的网络形成,很重要的一件事情,人的发育或者很多哺乳动物发育开始出生之后是没有什么网络的,神经元已经出生了,但是之间的网络是非常少的,所有的网络是我们关键所有认知行为的关键,都是在出生之后建立的,比如两个月之后人的网络,大量的神经网络产生,产生这么多干什么呢,就比成熟的网络还要复杂,为什么呢,他要经过学习把他修成有用的网络,在发育过程中我们看到树突棘,你可以看这是大量上升,刚出生的时候是不断的上升,然后开始慢慢下降,到青年期就开始下降,为什么下降了,下降就说你学习的过程中就是造成网络的修饰,开始的时候小孩子在地上爬都站不起来,所有的运动系统很复杂的网络造成的,通过什么样的强化,哪些东西是正确的网络,他就慢慢的学会站起来会走路了,这个网络就被巩固下来这个是修饰过程,所以网络的修饰在发育期是很重要,这个发育期网络修饰有问题就产生各种问题,自闭症是网络修饰不够精神分裂症是网络修饰太大,这是现在的假说。

网络的修饰事实上成年期跟发育期是不一样的,成年期有突触新生,但是数目很少,在发育期他可以产生大量的连接出现,修剪是非常重要的,成熟的时候大脑还是可以变,但是变的是有限,增加几个减少几个,通过学习,这为什么要这样子,要有两种不同的可塑性,这是演化的伟大的发现,你要修剪,修剪之后就不能再修剪,经验已经累积到一个程度,你还是要让他可塑性,只有少数的可塑性使他可以记忆学习,早期的经验不可以再修,再修以前学的都忘掉,这是演化过程中的一个出现的机制,就是网络形成过程中跟成熟期的可塑性有不同的规律。

现在讲人工网络,Hopfield人工网络就是把赫伯学习法则加进去了,每一个连接点他是可以变的,还可以通过赫伯学习法则来调节,调节之后呢,他的网络就可以记忆学习,一群突触就代表一种记忆,可以储存多种记忆,另外一个重大发现就是我们说的BP的出现,BP的出现就是很简单的,也是神经科学带来的一个信息,神经科学在运动学习的过程,就是我们说学习丢东西,我们为什么越学越准,学对了要调节我们的小脑的网络,使他维持不动,有错误要修正,由于结果来反馈你的网络,其实就影响了BP的出现,所以我们说这两个重大的突破都是脑科学一个非常简单的概念造成的重大的突破,在80年代的时候我们常常看到会说话的网络,简单的三层网络里面输入各种英文单词,然后还有输出各种发音,你就让他不断的学,这个其实不需要很大量的学习网络就会有没有见过的字就可以出现新的发音是准确的,开始就像小孩子一样,输出不对的时候就把输入改一点,对的就不变,一层一层往上改,最后改出来的突触造成网络非常准确有效的会说话的网络,像这种非常令人吃惊的人工智能发展,这个在80年代末期是达到高峰,你在外面的输出有变的时候,你要改变输入的效率,这个你就是要从输出改变输入,信息是从输入到输出这个方向,你怎么把输出的信息传到输入,你用数学的算法来做这不合道理,神经系统没有这个机制。

我们在组织培养一群细胞,事先有连接,就记录四个细胞,他们之间有大量的连接,每一个都跟每一个几乎都有连接,有16个连接,但是这16个连接就有16个连接点,其实只有9个连接点是有电活动,然后我们就说现在要把其中的一个连接点改变强度,看他有没有影响其他的连接点,比如我们把这个连接E1到E2的连接增强,LTP出现了,突触电位增强,但是观察了在9个连接里面,有4个其他的连接也增强了,这个连接增强也造成其他的连接增强,所以他就有一个扩散,这是什么规则呢,我们就研究发现这个规则,所以我们就很高兴的很兴奋的写了一篇文章,这篇文章就是发表在1997年的Nature杂志,这个文章就叫PropagationLTD(也不知道是不是这篇文章,找到最像的一篇,提到了前向传播和横向传播,数据很强,图表很多,但是没看懂~第二个像的文章:简单神经网络中活动依赖性突触抑制的传播),这个文章创了两个记录,第一个就是Nature长文,有10页纸长,另外一个记录就是这篇文章是引用率最低的文章,这为什么呢,我们做这个实验,没有人知道为什么做这个神经,神经科学的人看到这个他不知道这个结果有什么用,人工智能不读生物科学的文章,所以他引用率是最低的,到今年现在慢慢开始上升了,我希望大家对这个重视,花了10年功夫证实LTP跟LTD**反向跟侧向传播是存在的**,比如说你在这个结点,输入到输出,你发现LTP跟LTD的回头自己本身传递到他的输入,他输出是错误的,是LTD输出是LTP,这个不会往下传,这个现象呢我觉得是相当有意思的,是不是我们现在自我学习就网络上自我学习就是这样的一个机制,就自己可以传递。

总结特性:

剩下最后几分钟,刚才讲的这些内容总结了一下,现在提出5个类型的可以借鉴的特性,第一个特性,我们现在人工智能里面没有的就是种类,我们所有的单元都是一样的,但是神经系统的关键就是抑制性的神经元,没有抑制性神经元很多功能不能出现,抑制性的跟兴奋性的神经元还有亚型,不是说每一个单元都是同样的性质,高频信号有些输出有反应,对低频没有反应,亚型有各种信号传递的特性,这是更进一步的分析,所以这就是未来人工智能可以加进去的,还有就是说在神经网络里面有顺向的,现在都是顺向的网络,但是也有逆向的网络也有侧向的网络,这都可以是抑制性也可以是兴奋性联接,局部网络里面最关键三种网络,一种是Feedback网络,神经元被激活之后自己轴突输出到旁边的抑制性神经元回来抑制自己,所以他有控制,不是无限制不断的高,他是可以压制高幅度的电活动,也有Feed-forward,除了输入兴奋性神经元,同样的输入到旁边的抑制性神经元,通过延迟这个信号抑制神经元,还有旁侧的,把神经系统一连串的信息尖锐化,因为有一个抑制性延迟,所以开始的时候有信息,后面一连串的信息把后面消掉,所以就时间变的更准确,可以强化中间这个被刺激的神经元,通过侧向的抑制使旁边的下降,这样子可以突出该强化的通路,不该强化的通路压下去,这些都是抑制性神经元造成的。

第三类最重要的一类可以借鉴的就是神经突触可塑性,有功能的可塑性,就是效率的增强或减低LTP跟LTD,这是我们最常见的,但是今天说到我们增强跟削弱的规律是什么,依赖突触前后电活动的频率决定LTP或LTD,但也可以依赖时序,就是突触前跟突触后的电发放顺序,还有一个就是结构可塑性,就是这个突触尤其在发育过程中有新生的有修剪,这个连接是可以变,现在是不可以变(这里说的是人工网络?),只可以变突触权重,但不可以变联接,在计算所的实验室已经把这个联接可变性加入进去发现有很大的功能,还有一个就是可塑性的传播,LTD的传播是我们的BP的来源,但是LTP为什么不可以传播,传播为什么一定要指定,可以有自己的逆向传播、侧向传播,而且是可以自发的,不需要指令的神经元自己的有序的传播来进行突触的变化。

第四类,记忆储存、提取与消退,记忆是怎么回事呢,就是突触群在感知记忆或者其他记忆激活的时候之间联接增强或者结构修剪,就是在进行处理的网络上的储存,他这个储存的修饰在神经系统里面随时间消退,LTP、LTD不是长期的,你来一次的话过一阵子几十分钟之后就不见了,这是有道理的,不是所有的突触都可以强化,都可以弱化的,这样子的话没有意义的信息,所以他有遗忘,这个短期记忆长期记忆是同样的网络可以进行转化,这个短期记忆就是可以消退的,有规则的重复性有意义的信息他可以把这个网络之间突触之间的强化和弱化转化为长期的变化,结构上的变化,这就是神经系统的机制,记忆储存是什么,就是在这个网络使部分突触群的活动在线,就可以把这个记忆提取出来,最后我们强化学习,通过输出信息增强或减弱来修改跟这个功能相关的突触群的修饰,通常在神经系统里面,他的指令是什么,是另外一种神经元,现在是用算法来做这个强化,但事实上神经网络里面可以加入特别的神经单元来做这个功能。

最后就是赫伯,最有兴趣的一个集群概念,这个赫伯神经元集群概念,就是嵌套的集群,可以用来坐图像的记忆,做概念的形成,这都是嵌套式集群,加入STDP之后可以变成时序,包括语言信息的储存也是嵌套的,集群怎么形成,就这个句子出现的时候产生的集群,这个集群跟另外一句话的集群不一样,同样的一个字一个语句,在不同的句子里面意义不一样,就是因为不同的集群里面他产生了连接,所以这个集群可以把多成分多模态的信息放在一起,视觉的、听觉、嗅觉的,都可以连在一起,不同模态的信息在网络的不同区域处理,在神经网络里面自然网络里面把这些怎样捆绑不同模态的信息呢,他就是用同步活动,同步的活动震荡,这个同步的震荡在不同区域同时震荡,或者震荡有一个相差,一个先一个后,这也是同步来捆绑各种集群,输入信息,在神经系统很重要的是图谱,视觉系统不是乱输入,而是有图谱,有些图谱结构已经用在人工网络里面已经开始使用了。

脑科学与类脑人工智能的协同发展也是我们未来的前景,强调相互共同支撑、相互促进、共同发展,我是看到人工智能这个BP的出现,诱导了我在自然网络追寻有没有BP自然的出现,不需要指令的出现,发现有这个现象,现在那个现象发现之后还没有回馈到人工网络,所以我说假如再回馈到人工网络,在人工网络里面也可以发现这个很有用,我们就是脑科学跟人工智能结合的一个最好的例子,脑科学的用在人工网络上,这个反应过来也是可以的,为了有效结合这两个领域,中国科学院去年成立脑科学智能技术卓越创新中心,这个中心跟一般的中心不一样,我们真的是在一起工作,这种联合是我们未来哪一个国家的人工智能跟脑智能的融合协同发展进展最好,那个国家就最有前途,希望大家未来关心脑智中心的发展,我今天就讲到这里,谢谢。

据悉,蒲慕明院士将以大会报告专家的身份参加8月25日至26日于西安举办的认知计算与混合智能学术大会。本届大会由国家自然科学基金委员会信息科学部、中国自动化学会和中国认知科学学会联合主办,是国内首个关注认知科学、神经科学与AI交叉融合的高端学术会议,届时认知建模与计算、混合智能、受神经科学启发的计算架构与器件、先进感知、智能机器人、无人智能驾驶等领域海内外知名专家共聚一堂,交流相关研究领域的最新成果和发展趋势。

欢迎广大国内外学者及相关领域各界人士参会,期待您的到来!

报告题目: 脑科学对类脑人工智能可能有的贡献

报告摘要:人脑的认知可以分为三个层面: 对外界的认知、自我与非我的认知、对语言的认知。对大脑如何进行这些认知功能的理解将有助于未来类脑人工智能的研发有所贡献。问题是目前脑科学对大脑在这三个(尤其后两个)层面机制的理解仍极为粗浅,如何能对类脑人工智能有贡献?本演讲将对这个问题给于一个正面的答案,并指出大脑目前已知的哪些神经元和神经网络的特性,已经可以但仍未引入人工神经网络的架构和机器学习的算法之中。大脑神经网络在信息处理、储存、提取的高效节能的特性源于网络架构的形成过程、突触可塑性的调控和记忆储存的机制。我将简述目前已知的过程和机制如何用于大脑的认知功能,并提出哪些神经网络的特性是可以对研发新一代类脑人工神经网络有所启发。最后,将以我们在猕猴研究自我意识的一项工作为例,说明高层面的大脑认知机制是可以在动物模型上进行研究,未来将有助于研发具有高级认知功能的人工智能。

专家简介:中国科学院神经科学研究所所长、中国科学院脑科学与智能技术卓越创新中心主任,中国科学院院士、美国科学院院士、中国台湾“中研院”院士、中国香港科学院院士。1948年出生于南京,1970年毕业于台湾“清华大学”物理系,1974年获得美国约翰霍浦金斯大学生物物理博士学位。1976-2000年先后在美国加州大学艾文分校、耶鲁大学医学院、哥伦比亚大学、加州大学圣地亚哥分校任教。2000-2012年间曾任加州大学伯克利分校神经生物学部主任和Paul Licht杰出生物学讲座教授。1984-1986年任清华大学生物科学与技术系主任。1999年起任中科院神经科学研究所首任所长迄今,2012年起全职在上海工作。主要从事神经元发育与突触可塑性的分子细胞机制研究。曾获得法国巴黎高等师范学院和香港科技大学荣誉博士学位、美国Ameritec 奖、中华人民共和国国际科学技术合作奖、求是基金会杰出科学家奖、中国科学院杰出科技成就集体奖、Gruber 神经科学奖。现任Neuron等期刊编委,国家科学评论执行主编,澳大利亚昆士兰脑研究所等十余国际科研机构的学术咨询委员。

启发总结:

生物脑的网络结构设计,以及调整的机制,对处理多问题的人工神经网络的设计,具有很大的启发性,希望以后能够有机会深入的了解学习~

你可能感兴趣的:(ai,学习笔记,文献,神经科学)