这种有序性就是我们思想中的规则。我们的大脑是靠这些规则(因果关系)理解和解释事物的。如果事物结构的有序性与我们大脑的思维结构不兼容,我们就无法理解或暂时不能理解它们,因为我们对事物的认识是来自感官的。
由此推断人工思想机器的思维结构必须与我们大脑的组织结构在模式上兼容。当我们紧张不安时,我们就会意识到我们的大脑没有处于良好的有序状态。
我们的行为正是我们的大脑为自己工作的结果,即大脑正在调整自己的组织结构或变得更加有序,最终是通过行为显现的。计算机或控制系统都有硬件和软件,就像光具有波粒二重性。
软件就像头脑,它控制“身体”的行为,但是它的功能并不一定是有智慧的。软件是系统的组织结构。与电脑运行软件不同,思维不仅是在运行软件而且是在进行自身结构重组,使其更加有序。
在人的神经网络系统中,大脑产生意识。意识是大脑记忆某些自身活动的结果。意识内容总是尽可能转向无意识,即从模糊到有序。
意识通过注意和集中只是处理问题的模糊部分,而无意识则是过滤信息和支配多任务,准确地对平常来自环境和身体内部的信号或刺激作出反应。大脑可以回忆无意识区的记忆,但是处理记忆则是在意识区进行思维。
电脑程序完全是“无意识”的或者说是完全有序的。无意识永远不会接受来自意识的模糊内容。我们能够感受两种现象,自然(非生命)和生活。
一般讲我们可以预期自然现象和发现自然规律,但是我们不能找出普遍的动物生活现象的规律,也不能精确预测动物的行为。生命(动物)具有意志。
查看人工神经网络演示世界上所有生命包括植物在最初阶段都只有无意识。无意识的作用一是完全有序的,支配生命自身的行为,对外界和内部刺激作出准确的反应以适应环境和为了生存;二是完全无序的,由自然来选择。
无意识不能处理模糊问题。当生命进化到一定程度,它们开始以简单的记忆方式记录刺激与反应的关系并形成经验,这样就产生了意识。生命初期的意识没有自觉性。
当生命能够以信息的方式记忆它正在做什么,它就有了自我意识。意识是主体对模糊信息刺激反应过程的记忆结果,可以说大脑也是这种记忆的产物。如果我们接受这个观点,意识就简单地成为记忆问题了。
由于无意识,记忆并不记录所有的大脑活动。要是电脑能够伴随自发地记录自己的工作过程,就能够有自我意识。讨论意识而不涉及无意识是不恰当的,因为无意识是意识的深厚基础。我们的记忆都在无意识之中。
无意识的作用是过滤输入的信息、组织关联记忆或经验以及完成多任务等。而潜意识是心理学词汇,通常用来解释人的思维和行为的驱动。无意识并不是大脑空空,只要没有脑死亡它就会永远不停地工作。
人脑的智能活动是意识和无意识的混合工作。没有无意识就没有智能。讨论大脑思维可分为不同层次,即从最表面的行为表象和情感到基本粒子的状态、运动和相互作用。
不论我们所指的数字、模拟、图像、情感、价值观、量子是什么意思,如果在一个讨论中跨越不同的层次,就会经常引起误解和混乱。作为人工智能主体的神经网络必须包括“大脑”和“身体”。
所谓大脑就是这个系统的意识区和无意识结构或程序。意识区处理模糊问题,它包括处理记忆和编程功能;无意识程序处理精确问题,包括过滤信息、多任务功能和储存记忆。所谓身体包括感官和行为执行机构。
智能系统内部成员是靠神经系统联系的。这也就是说它们之间不得存在任何信息传递界面。电脑部件之间的信息传递是有界面的,所以仅从这一点上讲电脑不可能是个智能主体。
任何人造系统必然存在一个界面,在这个界面上人和人工物的交互方式是兼容的。如果制造一个具有自我意识的“人工智能”系统,就应该在它的自我意识和自我人工物之间存在一个界面。
另外,设计这种系统必须让我们提前知道它如何产生意识,而意识又是我们设计目标的一种附带现象。它又是在这个系统被制造完成之后才能显现的。
我们设计制造东西是靠我们头脑中现有的规则和逻辑,因此我们对人造物自身的功能和发展过程是能够预期的。我们无法设计一种我们不能理解和预期它的功能的机器。
因此我们只好模拟大脑功能,这又让我们面对界面的难题,于是我们开始转向量子理论,但是我们不能肯定我们大脑的工作机理是否是量子化的。
人类大脑内在数十亿个神经细胞,它们相互之间通过神经突触相互影响,形成极其复杂的相互联系。
记忆就是脑神经细胞之间的相互呼叫作用,其中有些相互呼叫作用所维持时间是短暂的,有些是持久的,而还有一些介于两者之间。
当一个脑神经细胞受到刺激发生兴奋时,它的突触就会发生增生或感应阈下降,经常受到刺激而反复兴奋的脑神经细胞,它的突触会比其它较少受到刺激和兴奋的脑细胞具有更强的信号发放和信号接受能力。
当两个相互间有突触邻接的神经细胞同时受到刺激而同时发生兴奋时,两个神经细胞的突触就会同时发生增生,以至它们之间邻接的突触对的相互作用得到增强,当这种同步刺激反复多次后,两个细胞的邻接突触对的相互作用达到一定的强度(达到或超过一定的阈值),则它们之间就会发生兴奋的传播现象,就是当其中任何一个细胞受到刺激发生兴奋时,都会引起另一个细胞发生兴奋而,从而形成细胞之间的相互呼应联系,这就是即记忆联系。
谷歌人工智能写作项目:神经网络伪原创
-大脑皮质就是脑部最外层有着弯曲皱折的部份,与人类的感知、思想、情绪和行为等高层次心智有关。-复杂的皱折让表面积增大的皮质可以装入内部表面积有限的头颅里。
-最新发现显示,皮质上的隆起和沟壑是因皮质内神经纤维的拉力所造成的。-健康人和罹患源自胚胎发育时期的脑疾病(例如自闭症)患者的大脑皮质外观不同,这些形状差异显示患者各个脑区间的联系也和正常者有别。
第一眼看到人类大脑,我们首先会注意到的就是那纵横交错的隆起和沟壑,这些有着弯曲皱折的胶状组织即为大脑皮质(又称为灰质),约2~4毫米厚,里面布满了神经元,负责调控认知、思想、情绪和行为。
其它脑部较大的哺乳动物,像是鲸、狗和人类的近亲大猿,也都有纹路独特的皮层皱折,脑部较小的哺乳动物和其它脊椎动物,脑部外观则较平滑。
这些拥有大型脑部的哺乳动物在演化过程中,皮质大幅扩增,事实上,如果把人类的大脑皮质铺平,它的面积相当于一个特大号披萨,是头颅内部表面积的三倍,因此人类和其它“脑大”的物种,要把皮质塞进头颅的唯一办法就是“折迭”。
这些折迭并不像将纸揉起来一样随便,每个人都循着一定的模式。这些折迭原先是怎么发生的?折迭产生的形态是否透露了脑的功能?
新研究显示,在胚胎发育期间,神经纤维网络会将柔软的皮层拉扯出特定形状,并且终生维持着,如果神经网络在发育期间出错,或之后因中风或创伤受损,就会对脑的形状和神经传讯造成深远的影响,因此这项发现可引领诊断和与疗一些精神疾病的新策略。
神经纤维的拉力造成皱折几百年来,科学家不断思索着脑部复杂的形状。
19世纪初期,德国医生高尔(FranzJosephGall)提出从脑和头颅的形状可看出一个人的智力和个性的观念,这个理论又称为颅相学(phrenology)。
尽管没有科学证据支持,这个影响深远的观念却让科学界开始搜集并研究“罪犯”、“变态”和“天才”的脑。
到了19世纪后期,瑞士解剖学家西斯(WilhelmHis)提出假说,认为脑的发育受到一连串物理力量的引导。
英国博物学家汤普森(D'ArcyThompson)根据这个学说指出,不管是生物或无生命物质,许多结构都是物理性自我组织的结果。这些早期学说虽然诱人,但最后却日渐式微。
人们认为颅相学是伪科学,在现代遗传理论下,以生物物理来了解脑结构的方法相形失色,不过最近科学家使用全新的脑造影技术,并以先进的计算机分析为辅,反倒为19世纪的那些旧观念提供了一些新鲜的证据。
1997年起,有一些线索指出西斯和汤普森有关大脑构造的想法并没有错。
美国圣路易华盛顿大学的神经生物学家范艾森(DavidVanEssen)在《自然》上发表了一个假说,指出那些连结大脑皮质不同区域、负责讯息传递的神经纤维,会对这层胶状组织造成一些微弱的拉力。
在人类胚胎发育的前六个月,大脑皮质都维持平滑,新生神经元会伸展出细长的轴突(axon),钩住位于皮质其它区域内的目标神经元的树突(dendrite),然后系缚在一起,当皮质扩增,轴突像橡皮筋一样拉得又长又紧;到了怀孕中期尾声,神经元继续形成、移动并建立连结,大脑皮质也开始折迭;到了出生时,皮质已大致发展完全,也有了典型的皱折外观。
范艾森认为,大脑皮质上两个区域间有许多轴突相连,在发育期间会因为系缚的轴突产生拉力而拉近,形成隆起的脑回(gyrus);相对的,连结较弱的区域就会被拉开,分隔在脑沟(sulcus)的两侧。
现代科技可追踪神经线路,以检查皮质上这些神经传讯系统是否也是雕塑脑部外形的主因。根据简单的机械模型,如果每根轴突会产生微弱的拉力,两个联系紧密的区域间,其所有轴突结合起来的力量可以强到拉直路径。
利用称为逆向追踪的方法,将染料注射到皮质的某个区域内,染料就会从轴突末端吸收、进入神经元,反向运送回细胞本体,而得知有哪些区域会伸出轴突到注射区域。
此外,这个方法还可显示出这个区域与外界的联系有多密切,以及这些轴突路径的曲直。
我们以逆向追踪法研究恒河猴的许多神经连结之后发现,如同我们的预测,大部份轴突路径都呈直线或略微弯曲,而且连结越密集,路径也越直。神经连结的雕塑能力从人类左、右脑半球语言区的形状差异即可明显看出。
举例来说,侧脑沟(Sylvianfissure)这条深沟隔出前、后语言区,但左脑的裂沟比右脑的裂沟浅多了,这种不对称现象可能与弓形束(arcuatefascicle)的结构有关,这条粗大的神经束沿着裂沟连接了前、后语言区。
根据这项观察以及多数人语言主要依赖左脑的事实,我们在2006年发表的论文中假设左脑弓形束的神经纤维比右脑来得密集。之后有几个脑造影研究证实了左、右脑神经束密度的不对称性。
根据理论,较粗的纤维束应该会产生较强的拉力,因此左脑的弓形束应该较右脑直,这点仍有待验证。从巨观皱折到微观结构机械性张力不仅雕塑了大脑皮质的巨观特征,也影响了皮质的层次结构。
大脑皮质就像多层蛋糕,是由层层细胞堆栈出来的。大部份区域有六层细胞,每一层的厚度和组成都不同。
举例来说,主要感觉皮质区的第四层比较厚,控制自主运动功能的皮质区第五层比较厚,而皮质联合区(支持思考和记忆等功能的区域)则是第三层比较厚。
100多年来,科学家利用这种层次结构的差异将皮质划分出不同的特化区,最著名且沿用至今的是德国解剖学家布洛德曼(KorbinianBrodmann)所绘制的大脑皮质图。
而皮质的折迭则会改变细胞层的相对厚度,就像弯折一迭海绵一样,在隆起的脑回,顶层皮质伸展变薄,在凹陷的脑沟处,顶层皮质挤压变厚,而底部细胞层的情形则刚好相反。
根据这些观察,有些科学家认为,虽然细胞层和神经元会伸展或被挤压,但皮质总面积和所含的神经元数目是相同的。若是如此,较厚的区域(像是脑回底部细胞层)的细胞数会少于较薄的区域。
这个称为等容积模型的学说认为,在胚胎发育期间,神经元先迁移到皮质,然后皮质才开始折迭,这就好比我们折迭一袋米,袋子的形状改变,但它的容量和里面的米粒数在折迭前后都是一样的。
但是我们对恒河猴前额叶皮质区神经元密度的研究却显示,等容积模型是错误的。
利用额叶样本得到的估计值,我们认为脑回底部和脑沟底部的神经元密度是相同的,由于脑回底部细胞层较厚,单位面积中脑回底层的细胞数还多于脑沟底层。
4.2.1概述人工神经网络的研究与计算机的研究几乎是同步发展的。
1943年心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型,20世纪50年代末,Rosenblatt提出了感知器模型,1982年,Hopfiled引入了能量函数的概念提出了神经网络的一种数学模型,1986年,Rumelhart及LeCun等学者提出了多层感知器的反向传播算法等。
神经网络技术在众多研究者的努力下,理论上日趋完善,算法种类不断增加。目前,有关神经网络的理论研究成果很多,出版了不少有关基础理论的著作,并且现在仍是全球非线性科学研究的热点之一。
神经网络是一种通过模拟人的大脑神经结构去实现人脑智能活动功能的信息处理系统,它具有人脑的基本功能,但又不是人脑的真实写照。它是人脑的一种抽象、简化和模拟模型,故称之为人工神经网络(边肇祺,2000)。
人工神经元是神经网络的节点,是神经网络的最重要组成部分之一。目前,有关神经元的模型种类繁多,最常用最简单的模型是由阈值函数、Sigmoid函数构成的模型(图4-3)。
图4-3人工神经元与两种常见的输出函数神经网络学习及识别方法最初是借鉴人脑神经元的学习识别过程提出的。
输入参数好比神经元接收信号,通过一定的权值(相当于刺激神经兴奋的强度)与神经元相连,这一过程有些类似于多元线性回归,但模拟的非线性特征是通过下一步骤体现的,即通过设定一阈值(神经元兴奋极限)来确定神经元的兴奋模式,经输出运算得到输出结果。
经过大量样本进入网络系统学习训练之后,连接输入信号与神经元之间的权值达到稳定并可最大限度地符合已经经过训练的学习样本。
在被确认网络结构的合理性和学习效果的高精度之后,将待预测样本输入参数代入网络,达到参数预测的目的。
4.2.2反向传播算法(BP法)发展到目前为止,神经网络模型不下十几种,如前馈神经网络、感知器、Hopfiled网络、径向基函数网络、反向传播算法(BP法)等,但在储层参数反演方面,目前比较成熟比较流行的网络类型是误差反向传播神经网络(BP-ANN)。
BP网络是在前馈神经网络的基础上发展起来的,始终有一个输入层(它包含的节点对应于每个输入变量)和一个输出层(它包含的节点对应于每个输出值),以及至少有一个具有任意节点数的隐含层(又称中间层)。
在BP-ANN中,相邻层的节点通过一个任意初始权值全部相连,但同一层内各节点间互不相连。
对于BP-ANN,隐含层和输出层节点的基函数必须是连续的、单调递增的,当输入趋于正或负无穷大时,它应该接近于某一固定值,也就是说,基函数为“S”型(Kosko,1992)。
BP-ANN的训练是一个监督学习过程,涉及两个数据集,即训练数据集和监督数据集。
给网络的输入层提供一组输入信息,使其通过网络而在输出层上产生逼近期望输出的过程,称之为网络的学习,或称对网络进行训练,实现这一步骤的方法则称为学习算法。
BP网络的学习过程包括两个阶段:第一个阶段是正向过程,将输入变量通过输入层经隐层逐层计算各单元的输出值;第二阶段是反向传播过程,由输出误差逐层向前算出隐层各单元的误差,并用此误差修正前层权值。
误差信息通过网络反向传播,遵循误差逐步降低的原则来调整权值,直到达到满意的输出为止。
网络经过学习以后,一组合适的、稳定的权值连接权被固定下来,将待预测样本作为输入层参数,网络经过向前传播便可以得到输出结果,这就是网络的预测。
反向传播算法主要步骤如下:首先选定权系数初始值,然后重复下述过程直至收敛(对各样本依次计算)。
(1)从前向后各层计算各单元Oj储层特征研究与预测(2)对输出层计算δj储层特征研究与预测(3)从后向前计算各隐层δj储层特征研究与预测(4)计算并保存各权值修正量储层特征研究与预测(5)修正权值储层特征研究与预测以上算法是对每个样本作权值修正,也可以对各个样本计算δj后求和,按总误差修正权值。
当有人问我们,我们是生活在什么维度的世界里,相信很多人都会回答三维空间。这是毋庸置疑的,但人体中并非所有构造都仅限于三维空间,就已经有科学研究发现大脑存在十一维空间。
诸多科学理论告诉我们,人类生活在三维空间中的三维生物。这一观念自从我们接触维度这个概念起就已经根深蒂固了,如果突然间有人和你说人脑所呈现出来的维度其实不局限于三维,估计很多人都会认为这个人在说胡话。
然而确实有这样的事情发生,早在2017年的时候就已经有科学家利用数学中的代数拓扑来研究人脑结构,并且得出了意料不到的结果。
据了解已经有科学家指出人脑的几何结构呈现出多维度的形式,其中的维度甚至高达十一维,这也是目前人类众多理论所涉及的维度理论中最高的维度。
一支来自瑞士的科研团队借用超级计算机建立起了人脑模型,该模型同时也由超级计算机驱动,所有的发现都是在这个基础上形成的。该科研团队的研究方向很明确,就是运用代数拓扑来研究人脑的构造。
而在数学上,代数拓扑的主要作用是在任何情况下都能够对物质的属性和空间进行客观描述,而且这种描述并不会受到影响。
其中就有科研人员发现一个派系的大小通常由这个派系的神经元决定,而这个派系中的一组神经元往往和其他派系存在联系。
同时研究人员表示,他们在研究过程中运用到的维度概念仅仅是指数学上的概念,而并非空间上的概念。通过一系列的研究之后他们发现人脑是一个无比复杂的结构,这里蕴藏着一个人类难以想象的世界。
根据大脑专家的介绍,人脑中的神经元数量已经超过了800亿个,每一个神经元都不是孤立的,都是和其他神经元形成密切的联系,进而形成一张张复杂的神经网络,这也是保证人类生命活动的必要条件。
既然大脑的结构如此复杂,科研人员又从何下手呢?一支名为“蓝脑”的研究团队在2015年的时候就对外发布了与大脑皮质相关的细节模型,而在两年之后这一结构被用来与代数拓扑结合,然后用于研究大脑结构的维度。
这两种工具仿佛是整个研究的助推器,科研人员通过它们逐渐识别出人脑的几何结构,而这种结构就是由所谓的派系和腔体构成的。
参与该研究的科学家表示,他们在研究的过程中发现了许多不同的派系和腔体,它们大多数是自然形成的,也有人工合成的,这些都是在以往的研究中所没出现过的。
数学家凯斯西斯表示,其中运用的代数拓扑具有放大神经网络的作用,它能够帮助研究人员在复杂的神经网络中找到隐藏的结构,这个过程就像在一片森林中找一棵特殊的大树一样。那么在他们的研究中人脑最终是什么结构呢?
大脑的构建过程就像搭建房屋,首先要在一维层面固定一根杆,然后在二维层面固定木板,再是建造立体物。这就意味着大脑可以在三维的基础上再构造出更高维度的结构。
人工神经网络(ArtificialNeuralNetworks,ANN)系统是20世纪40年代后出现的。
它是由众多的神经元可调的连接权值连接而成,具有大规模并行处理、分布式信息存储、良好的自组织自学习能力等特点。
BP(BackPropagation)算法又称为误差反向传播算法,是人工神经网络中的一种监督式的学习算法。
BP神经网络算法在理论上可以逼近任意函数,基本的结构由非线性变化单元组成,具有很强的非线性映射能力。
而且网络的中间层数、各层的处理单元数及网络的学习系数等参数可根据具体情况设定,灵活性很大,在优化、信号处理与模式识别、智能控制、故障诊断等许多领域都有着广泛的应用前景。
人工神经元的研究起源于脑神经元学说。19世纪末,在生物、生理学领域,Waldeger等人创建了神经元学说。人们认识到复杂的神经系统是由数目繁多的神经元组合而成。
大脑皮层包括有100亿个以上的神经元,每立方毫米约有数万个,它们互相联结形成神经网络,通过感觉器官和神经接受来自身体内外的各种信息,传递至中枢神经系统内,经过对信息的分析和综合,再通过运动神经发出控制信息,以此来实现机体与内外环境的联系,协调全身的各种机能活动。
神经元也和其他类型的细胞一样,包括有细胞膜、细胞质和细胞核。但是神经细胞的形态比较特殊,具有许多突起,因此又分为细胞体、轴突和树突三部分。细胞体内有细胞核,突起的作用是传递信息。
树突是作为引入输入信号的突起,而轴突是作为输出端的突起,它只有一个。树突是细胞体的延伸部分,它由细胞体发出后逐渐变细,全长各部位都可与其他神经元的轴突末梢相互联系,形成所谓“突触”。
在突触处两神经元并未连通,它只是发生信息传递功能的结合部,联系界面之间间隙约为(15~50)×10米。突触可分为兴奋性与抑制性两种类型,它相应于神经元之间耦合的极性。
每个神经元的突触数目正常,最高可达10个。各神经元之间的连接强度和极性有所不同,并且都可调整、基于这一特性,人脑具有存储信息的功能。利用大量神经元相互联接组成人工神经网络可显示出人的大脑的某些特征。
人工神经网络是由大量的简单基本元件——神经元相互联接而成的自适应非线性动态系统。每个神经元的结构和功能比较简单,但大量神经元组合产生的系统行为却非常复杂。
人工神经网络反映了人脑功能的若干基本特性,但并非生物系统的逼真描述,只是某种模仿、简化和抽象。
与数字计算机比较,人工神经网络在构成原理和功能特点等方面更加接近人脑,它不是按给定的程序一步一步地执行运算,而是能够自身适应环境、总结规律、完成某种运算、识别或过程控制。
人工神经网络首先要以一定的学习准则进行学习,然后才能工作。现以人工神经网络对于写“A”、“B”两个字母的识别为例进行说明,规定当“A”输入网络时,应该输出“1”,而当输入为“B”时,输出为“0”。
所以网络学习的准则应该是:如果网络作出错误的的判决,则通过网络的学习,应使得网络减少下次犯同样错误的可能性。
首先,给网络的各连接权值赋予(0,1)区间内的随机值,将“A”所对应的图象模式输入给网络,网络将输入模式加权求和、与门限比较、再进行非线性运算,得到网络的输出。
在此情况下,网络输出为“1”和“0”的概率各为50%,也就是说是完全随机的。这时如果输出为“1”(结果正确),则使连接权值增大,以便使网络再次遇到“A”模式输入时,仍然能作出正确的判断。
如果输出为“0”(即结果错误),则把网络连接权值朝着减小综合输入加权值的方向调整,其目的在于使网络下次再遇到“A”模式输入时,减小犯同样错误的可能性。
如此操作调整,当给网络轮番输入若干个手写字母“A”、“B”后,经过网络按以上学习方法进行若干次学习后,网络判断的正确率将大大提高。
这说明网络对这两个模式的学习已经获得了成功,它已将这两个模式分布地记忆在网络的各个连接权值上。当网络再次遇到其中任何一个模式时,能够作出迅速、准确的判断和识别。
一般说来,网络中所含的神经元个数越多,则它能记忆、识别的模式也就越多。(1)人类大脑有很强的自适应与自组织特性,后天的学习与训练可以开发许多各具特色的活动功能。
如盲人的听觉和触觉非常灵敏;聋哑人善于运用手势;训练有素的运动员可以表现出非凡的运动技巧等等。普通计算机的功能取决于程序中给出的知识和能力。显然,对于智能活动要通过总结编制程序将十分困难。
人工神经网络也具有初步的自适应与自组织能力。在学习或训练过程中改变突触权重值,以适应周围环境的要求。同一网络因学习方式及内容不同可具有不同的功能。
人工神经网络是一个具有学习能力的系统,可以发展知识,以致超过设计者原有的知识水平。
通常,它的学习训练方式可分为两种,一种是有监督或称有导师的学习,这时利用给定的样本标准进行分类或模仿;另一种是无监督学习或称无为导师学习,这时,只规定学习方式或某些规则,则具体的学习内容随系统所处环境(即输入信号情况)而异,系统可以自动发现环境特征和规律性,具有更近似人脑的功能。
(2)泛化能力泛化能力指对没有训练过的样本,有很好的预测能力和控制能力。特别是,当存在一些有噪声的样本,网络具备很好的预测能力。
(3)非线性映射能力当对系统对于设计人员来说,很透彻或者很清楚时,则一般利用数值分析,偏微分方程等数学工具建立精确的数学模型,但当对系统很复杂,或者系统未知,系统信息量很少时,建立精确的数学模型很困难时,神经网络的非线性映射能力则表现出优势,因为它不需要对系统进行透彻的了解,但是同时能达到输入与输出的映射关系,这就大大简化设计的难度。
(4)高度并行性并行性具有一定的争议性。承认具有并行性理由:神经网络是根据人的大脑而抽象出来的数学模型,由于人可以同时做一些事,所以从功能的模拟角度上看,神经网络也应具备很强的并行性。
多少年以来,人们从医学、生物学、生理学、哲学、信息学、计算机科学、认知学、组织协同学等各个角度企图认识并解答上述问题。
在寻找上述问题答案的研究过程中,这些年来逐渐形成了一个新兴的多学科交叉技术领域,称之为“神经网络”。神经网络的研究涉及众多学科领域,这些领域互相结合、相互渗透并相互推动。
不同领域的科学家又从各自学科的兴趣与特色出发,提出不同的问题,从不同的角度进行研究。
下面将人工神经网络与通用的计算机工作特点来对比一下:若从速度的角度出发,人脑神经元之间传递信息的速度要远低于计算机,前者为毫秒量级,而后者的频率往往可达几百兆赫。
但是,由于人脑是一个大规模并行与串行组合处理系统,因而,在许多问题上可以作出快速判断、决策和处理,其速度则远高于串行结构的普通计算机。
人工神经网络的基本结构模仿人脑,具有并行处理特征,可以大大提高工作速度。人脑存贮信息的特点为利用突触效能的变化来调整存贮内容,也即信息存贮在神经元之间连接强度的分布上,存贮区与计算机区合为一体。
虽然人脑每日有大量神经细胞死亡(平均每小时约一千个),但不影响大脑的正常思维活动。
普通计算机是具有相互独立的存贮器和运算器,知识存贮与数据运算互不相关,只有通过人编出的程序使之沟通,这种沟通不能超越程序编制者的预想。元器件的局部损坏及程序中的微小错误都可能引起严重的失常。
心理学家和认知科学家研究神经网络的目的在于探索人脑加工、储存和搜索信息的机制,弄清人脑功能的机理,建立人类认知过程的微结构理论。
生物学、医学、脑科学专家试图通过神经网络的研究推动脑科学向定量、精确和理论化体系发展,同时也寄希望于临床医学的新突破;信息处理和计算机科学家研究这一问题的目的在于寻求新的途径以解决不能解决或解决起来有极大困难的大量问题,构造更加逼近人脑功能的新一代计算机。
人工神经网络早期的研究工作应追溯至上世纪40年代。下面以时间顺序,以著名的人物或某一方面突出的研究成果为线索,简要介绍人工神经网络的发展历史。
1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。
因而,他们两人可称为人工神经网络研究的先驱。1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。
1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。
但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。
虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。50年代末,F·Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。
这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。
然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异感这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。
60年代末期,人工神经网络的研究进入了低潮。另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。
当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。
80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。
美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。
随即,一大批学者和研究人员围绕着Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。
1985年,Ackley、Hinton和Sejnowski将模拟退火算法应用到神经网络训练中,提出了Boltzmann机,该算法具有逃离极值的优点,但是训练时间需要很长。
1986年,Rumelhart、Hinton和Williams提出了多层前馈神经网络的学习算法,即BP算法。它从证明的角度推导算法的正确性,是学习算法有理论依据。从学习算法角度上看,是一个很大的进步。
1988年,Broomhead和Lowe第一次提出了径向基网络:RBF网络。总体来说,神经网络经历了从高潮到低谷,再到高潮的阶段,充满曲折的过程。
沃伦·麦卡洛克和沃尔特·皮茨(1943)基于数学和一种称为阈值逻辑的算法创造了一种神经网络的计算模型。这种模型使得神经网络的研究分裂为两种不同研究思路。
一种主要关注大脑中的生物学过程,另一种主要关注神经网络在人工智能里的应用。一、赫布型学习二十世纪40年代后期,心理学家唐纳德·赫布根据神经可塑性的机制创造了一种对学习的假说,现在称作赫布型学习。
赫布型学习被认为是一种典型的非监督式学习规则,它后来的变种是长期增强作用的早期模型。从1948年开始,研究人员将这种计算模型的思想应用到B型图灵机上。
法利和韦斯利·A·克拉克(1954)首次使用计算机,当时称作计算器,在MIT模拟了一个赫布网络。纳撒尼尔·罗切斯特(1956)等人模拟了一台IBM704计算机上的抽象神经网络的行为。
弗兰克·罗森布拉特创造了感知机。这是一种模式识别算法,用简单的加减法实现了两层的计算机学习网络。罗森布拉特也用数学符号描述了基本感知机里没有的回路,例如异或回路。
这种回路一直无法被神经网络处理,直到保罗·韦伯斯(1975)创造了反向传播算法。在马文·明斯基和西摩尔·派普特(1969)发表了一项关于机器学习的研究以后,神经网络的研究停滞不前。
他们发现了神经网络的两个关键问题。第一是基本感知机无法处理异或回路。第二个重要的问题是电脑没有足够的能力来处理大型神经网络所需要的很长的计算时间。
直到计算机具有更强的计算能力之前,神经网络的研究进展缓慢。二、反向传播算法与复兴后来出现的一个关键的进展是保罗·韦伯斯发明的反向传播算法(Werbos1975)。
这个算法有效地解决了异或的问题,还有更普遍的训练多层神经网络的问题。在二十世纪80年代中期,分布式并行处理(当时称作联结主义)流行起来。
戴维·鲁姆哈特和詹姆斯·麦克里兰德的教材对于联结主义在计算机模拟神经活动中的应用提供了全面的论述。神经网络传统上被认为是大脑中的神经活动的简化模型,虽然这个模型和大脑的生理结构之间的关联存在争议。
人们不清楚人工神经网络能多大程度地反映大脑的功能。
支持向量机和其他更简单的方法(例如线性分类器)在机器学习领域的流行度逐渐超过了神经网络,但是在2000年代后期出现的深度学习重新激发了人们对神经网络的兴趣。
三、2006年之后的进展人们用CMOS创造了用于生物物理模拟和神经形态计算的计算设备。最新的研究显示了用于大型主成分分析和卷积神经网络的纳米设备具有良好的前景。
如果成功的话,这会创造出一种新的神经计算设备,因为它依赖于学习而不是编程,并且它从根本上就是模拟的而不是数字化的,虽然它的第一个实例可能是数字化的CMOS设备。
在2009到2012年之间,JürgenSchmidhuber在SwissAILabIDSIA的研究小组研发的循环神经网络和深前馈神经网络赢得了8项关于模式识别和机器学习的国际比赛。
例如,AlexGravesetal.的双向、多维的LSTM赢得了2009年ICDAR的3项关于连笔字识别的比赛,而且之前并不知道关于将要学习的3种语言的信息。
IDSIA的DanCiresan和同事根据这个方法编写的基于GPU的实现赢得了多项模式识别的比赛,包括IJCNN2011交通标志识别比赛等等。
他们的神经网络也是第一个在重要的基准测试中(例如IJCNN2012交通标志识别和NYU的扬·勒丘恩(YannLeCun)的MNIST手写数字问题)能达到或超过人类水平的人工模式识别器。
类似1980年KunihikoFukushima发明的neocognitron和视觉标准结构(由DavidH.Hubel和TorstenWiesel在初级视皮层中发现的那些简单而又复杂的细胞启发)那样有深度的、高度非线性的神经结构可以被多伦多大学杰弗里·辛顿实验室的非监督式学习方法所训练。
2012年,神经网络出现了快速的发展,主要原因在于计算技术的提高,使得很多复杂的运算变得成本低廉。以AlexNet为标志,大量的深度网络开始出现。
2014年出现了残差神经网络,该网络极大解放了神经网络的深度限制,出现了深度学习的概念。
构成典型的人工神经网络具有以下三个部分:1、结构(Architecture)结构指定了网络中的变量和它们的拓扑关系。
例如,神经网络中的变量可以是神经元连接的权重(weights)和神经元的激励值(activitiesoftheneurons)。
2、激励函数(ActivationRule)大部分神经网络模型具有一个短时间尺度的动力学规则,来定义神经元如何根据其他神经元的活动来改变自己的激励值。
一般激励函数依赖于网络中的权重(即该网络的参数)。3、学习规则(LearningRule)学习规则指定了网络中的权重如何随着时间推进而调整。这一般被看做是一种长时间尺度的动力学规则。
一般情况下,学习规则依赖于神经元的激励值。它也可能依赖于监督者提供的目标值和当前权重的值。例如,用于手写识别的一个神经网络,有一组输入神经元。输入神经元会被输入图像的数据所激发。
在激励值被加权并通过一个函数(由网络的设计者确定)后,这些神经元的激励值被传递到其他神经元。这个过程不断重复,直到输出神经元被激发。最后,输出神经元的激励值决定了识别出来的是哪个字母。
。
资料1.人工神经网络理论基础包括:(1)PDP(ParallelDistribatedProcessing)模式(2)容限理论(3)网络拓扑(4)混沌理论1、PDP模式PDP模式是一种认知心理的平行分布式模式。
认知是信息处理过程,并且是知觉、注意、记忆、学习、表象、思维、概念形式、问题求解、语言、情绪、个性差异等等有机联系的处理过程。PDP模式是一种接近人类思维推论的模式。
人脑中知识的表达是采用分布式的表达结构,人脑的控制是实行分布式的控制方式。相互作用、相互限制是PDP模式的基本思想,平行分布是PDP模式的基本构架。
PDP模式的实施,需要一种合理的表示方法,其中一种表示方法便是人工神经网络表示法。即采用类似于大脑神经网络的体系结构,在这种基本体系结构下,使人工神经网络经过学习训练,能适应多种知识体系。
参考:?boardid=7&id=924&star=1&page=2资料2.神经网络模型信息加工模型有助于理论家把其理论假设进一步细致化、具体化。
然而正如我们在第一节所讨论过的,遵循联结主义传统的学者对比提出了反对意见,认为这一模型假设认知过程是继时性流动,而事实并非总是如此,(参见Rumelhart,Hinton,和McClelland,1986),至少有一些认知过程更可能是同时发生的。
比如说司机开车时可同时与人讲话。一种用得越来越多的模型是神经网络模型(或称并行分布模型)。这类模型认为不同的认知过程可以同时发生,这一假设与人们的主观感觉相一致:许多东西同时出现在脑海中。
这一假设还与我们已知的大脑神经的操作相一致。神经网络模型假设有一系列相互连接的加工单元,而且这些单元的激活水平是不同的。根据不同的传播规则,激活从一个单元传播到与之相连的其它单元。参考:3.。