深度神经网络(DNN)是否模拟了人类大脑皮层结构?

链接:https://www.zhihu.com/question/59800121

编辑:深度学习与计算机视觉

声明:仅做学术分享,侵删

作者:SIY.Z
https://www.zhihu.com/question/59800121/answer/174198192

只能说一部分是。

1. 一开始提出时,显然是借鉴人脑的,权值更新规则是著名的生物学上的Hebb's rule(经常一起激活的神经元连接会加强)。但是,Hebb's rule 不能训练多层网络,实际上训练深度网络的是BP算法,而BP算法在生物学上很牵强(虽然一直有人argue说存在,但是并没有真正让人信服的结论) 

2. LeCun在提CNN的时候提到了借鉴人脑。人脑视觉处理确实是分层的,并且非常重要的是CNN产生了和人脑非常一致的激活模式。但是,人脑处理公认一般也就4到5层(初级视皮层V1-V5),但是你看次现在效果奇好的Residual,可以上千层。

 3. 非常重要的一点,人脑神经元传递信号是脉冲形式的,有“时序和频率”的概念,而不是像神经网络一样不更新就是定值。脉冲形式也是能耗低和鲁棒性高的重要保证。 

4. 强化学习被认为和人脑的多巴胺系统有非常重要的联系。多巴胺系统似乎能够传递强化学习中的td信号。实验有初步认证,但是仍待观察。但是提问中问的是大脑皮层Orz.

5. 神经元相比神经网络中的人工神经元复杂的多,神经元有很多“内态”,多种效用不同的神经递质和激活模式。这点上看两者又是差异很大的。 

6. 一些边缘的类似,比如说注意力模型等。这些可能有关系(比如人脑确实是使用神经元以和DNN类似的模式来控制注意力的),但目前说不清。

暂时想到这些区别和联系,如果找到更多的之后会补上

不过我还是想补一些额外的话,

题者虽然只是问DNN是否模拟了人脑结构,但是我隐约还是感到有些倾向性,虽然不是所有人都这么想,但是肯定是有人有这种看法的。

DNN和人脑都有固有的缺陷。如果将来有证据说明,人脑一点都不“深”,并不意味着DNN有问题。如果人脑真的有几千层的结构,那么受生物学的限制(神经元工作频率很低的),人的反应会极度缓慢,根本不适合生存,所以说即使深能提高智商,自然进化也避免如此;而DNN没有这种问题。

同样的,使用脉冲信号也是不得已的方法,否则整体功耗和稳定性会非常糟(想象一下数亿的神经元同时都在维持连接(这还是非常稀疏的情况下),就像神经网络一样,如果不受干扰就要保持相对强的连接强度,这功耗真的把生物搞死)。早期的一些小生物(轮虫还是什么的记不清了),确实是不使用脉冲的策略,但是大了之后很难说使用脉冲不是一种无奈之举。我个人不相信脉冲可以传递精度很高的信号,这样以来很多类似BP的更新策略难以实际运行,即使它能够提高大脑的处理能力,如果真的如此反而DNN获得了优势。但是脉冲又带来了时序的概念,这又是一件焉知祸福的东西,控制好的时序可以高效构成某种模式,但是控制不好又显然造成了异步更新的麻烦。

所以说设计DNN也不能迷信人脑,实际中人脑可以作为一个很好的启发式和验证方式,但是收到各种生物学限制的系统几乎必然有大量的缺陷,所以DNN做的如何最终还是看实际效果,而不是和人脑类比。

作者:周博磊
https://www.zhihu.com/question/59800121/answer/540640047

这个问题涉及神经科学和AI的关联。我推荐一篇由Deepmind的CEO主笔的发表在Neuron杂志上的综述:http://www.columbia.edu/cu/appliedneuroshp/Papers/out.pdf

文章综述了神经科学和人工智能的发展历史,开门见山陈述了下面两个很有意思的观点:

  • Neuroscience provides a rich source of inspiration for new types of algorithms and architectures, independent of and complementary to the mathematical and logic-based methods an d ideas that have largely dominated traditional approaches to AI.

  • Neuroscience can provide validation of AI techniques that already exist. If a known algorithm is subsequently found to be implemented in the brain, then that is strong support for its plausibility as an integral component of an overall general intelligence system.

Inspiration和validation我觉得是对目前AI系统非常重要的两点补充。神经科学家在研究大脑这个计算系统时,会采取更直接,或者在数学建模者看来更naive的办法去研究,因为这个由千万年自然自下而上进化而来的蛋白质计算系统太复杂了,没法用数学或者物理理论去解释。而像AlphaGo这种Superhuaman AI系统,以后会越来越多。这样的系统已经很难用人类已知的理论去解释,所以从神经科学中挖掘相应的研究方法,也许确实是条路子。

另外一方面,神经科学中的一些现象和结论,能佐证和解释AI算法的有效性。DeepMind一直践行这种bottom-up的研究方法,做出了非常优秀的研究工作。这在DeepMind的另外一篇Nature论文:Vector-based navigation using grid-like representations in artificial agents ,体现得淋漓尽致。在这篇论文里,他们发现了一些类似于Grid cell激活特性的神经元会在训练导航的artificial agent的内部表征里出现。而这个grid cells本身的研究,获得了2014年诺贝尔生理学奖for their discoveries of cells that constitute a positioning system in the brain。DeepMind的这篇论文,还找来了这个诺贝尔奖获得者来写序,也是牛逼炸了。

所以我觉得,AI系统并不用强调自己的biological plausibility,因为毕竟工程上面能work是最好的。但是神经科学能给予的Inspiration和validation,给研究和构建更好的AI系统提供了支持。

作者:baskice
https://www.zhihu.com/question/59800121/answer/174609485

深度神经网络(DNN)是否模拟了人类大脑皮层结构?

没有,不仅人类大脑皮层这么复杂的结构没有模仿到,连最简单的几种模式生物(比如秀丽隐杆线虫)复杂程度的千分之一都不及。

你可以说 深度神经网络 这个方法(算法)创造时受到了神经学研究的启发,不能说这个方法是在模拟神经活动,更别提模拟人类大脑了。

DNN的核心思路在于输入内容经过多层“感知层”处理后生成结果,再用 误差反向传播 算法进行优化训练。这么搞直接倾向就是中间感知层层数越多,结果越准确。这跟人脑,甚至不说人脑,就连模式生物的简单神经活动都没什么关系。

神经处理并不注重层数,而更注重频率,时间,化学环境调节,甚至信号来源方向都会有影响。神经内的分子信号还经常影响自己的行为。

循环神经网络Recurrent Neural Networks 中每个节点输出内容会影响自己这一思路,是借鉴现实神经元的行为。

因此可以说  RNN相比DNN更加“模拟”神经行为。

作者:叶强
https://www.zhihu.com/question/59800121/answer/213490854

个人认为 两者联系还是很多的但也有很多差别。

不过DNN更多地模拟了人类神经系统的感觉系统部分,像CNN的灵感基本就是从视觉系统来的,大多数DNN(除外RNN)完成的是最基本的特征表示这块。至于得到的特征下一步怎么用?现在的DNN多数就接了个分类器,这是很不像人脑的。人脑在把各种途径得到的特征都送入一个叫丘脑的地方进行整合反馈。

而丘脑如何工作已经不是很清楚了。即使这样丘脑也形成不了智能,丘脑又叫原始脑只能进行比条件反射略高级点的行为。大脑皮层则是产生智慧的地方。在大脑皮层有许多皮质柱,每一个皮质柱相当于存储了一类知识的循环神经网络。大脑智能的决策基本不属于目前DNN探讨的内容,而有点像强化学习的知识学习。另外 DNN中的梯度反向传播和人脑的神经元联系目前看不出来,至于人类的神经系统其神经元的权重调节是否是决定性的、是否是后天学习调整的还是dna遗传带来的这些还不好说。

不管怎么说DNN试图在模拟人类神经系统的部分工作机制,两者有着千丝万缕的联系。同时个人认为目前的DNN提供的几大类基本的网络结构已经比较成熟了,今后的方向可能更多的要转为搭建基于基本网络的复合网络、探究网络如何表示知识。学习不是简单的特征检测,到底是调整权重带来的智能还是复杂的复合网络的架构产生了智能都是需要探讨的。有可能CS目前研究的DNN最终也能找到一条通往强人工智能的解决方案,那很有可能与人类神经系统存在本质上相同的地方。

作者:匿名用户
https://www.zhihu.com/question/59800121/answer/175803711

我猜来回答此问题的更多的为cs的专业人士。提问暗含的意思似乎是已经把单个神经元当作学习的最小功能单位,其实远非如此。一个神经细胞已经是无数分子和电信号整合后的反应大单位。甚至更精细一些,神经细胞上的一个突触都可以根据刺激强弱极为迅速地进行自我活性调控。而一小小突触,其下涉及的蛋白种类和瞬间的酶活应激变化何止千种。

再给一百年,深度学习进化到再高的程度,恐怕也比不上单个神经元的plasticity能力。

枉论是皮层了。

概念上有相似之处,但这相似之处很牵强。因为人们并不了解皮层,所以其实本来也谈不上对皮层的概念,至多算是“模仿了脑神经领域中某个有争议的关于学习产生的简化理论模型”。


作者:Genome
https://www.zhihu.com/question/59800121/answer/175176294

什么是模拟?我完成了一件事,你用相同的方式完成了,是模拟吗?那我用不同的方式完成了同一件事了?DNN的潜力我们只看到了冰山一角,同样大脑怎么工作的我们也只看到了冰山一角,基于这冰山一角去判断问题肯定有局限性。如果两种不同的方法都能完成同一个目标,那么他们内部必然有本质相同的东西(甚至是本质相同的),如鸟飞和飞机飞背后都是空气动力学的本质。同样DNN可以和大脑类比,只是现在的DNN和大脑的很多问题我们还说不清楚而已,而且毋庸置疑DNN一定会变得更强大。

☆ END ☆

如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 mthler」,每日朋友圈更新一篇高质量博文。

扫描二维码添加小编↓

你可能感兴趣的:(神经网络,网络,算法,机器学习,人工智能)