人工智能神经网络之父,神经网络是谁提出来的

人工智能神经网络之父,神经网络是谁提出来的_第1张图片

1、计算机之父和人工智能之父分别是谁

计算机之父冯·诺依曼,人工智能之父马文·明斯基。

冯·诺依曼,原籍匈牙利,布达佩斯大学数学博士。20世纪最重要的数学家之一,在现代计算机、博弈论、核武器和生化武器等领域内的科学全才之一,被后人称为“计算机之父”和“博弈论之父”。

马文·明斯基是“人工智能之父”和框架理论的创立者。和麦卡锡一起在1956年发起“达特茅斯会议”并提出人工智能概念的计算机科学家马文·明斯基被授予了1969年度图灵奖,是第一位获此殊荣的人工智能学者。

扩展资料:

冯·诺伊曼是二十世纪最重要的数学家之一,在纯粹数学和应用数学方面都有杰出的贡献。他的工作大致可以分为两个时期:

1940年以前,主要是纯粹数学的研究:在数理逻辑方面提出简单而明确的序数理论,并对集合论进行新的公理化,其中明确区别集合与类。

其后,他研究希尔伯特空间上线性自伴算子谱理论,从而为量子力学打下数学基础;1930年起,他证明平均遍历定理开拓了遍历理论的新领域。

1933年,他运用紧致群解决了希尔伯特第五问题。此外,他还在测度论、格论和连续几何学方面也有开创性的贡献;从1936~1943年,他和默里合作,创造了算子环理论,即所谓的冯·诺伊曼代数。

二次世界大战以前,图灵正是在这里开始研究机器是否可以思考这个问题的,明斯基也在这里开始研究同一问题。1951年他提出了关于思维如何萌发并形成的一些基本理论,并建造了一台学习机,名为Snare。

Snare是世界上第一个神经网络模拟器,其目的是学习如何穿过迷宫,其组成中包括40个“代理”(agent,国内资料也有把它译为“主体”、“智能体”的)和一个对成功给予奖励的系统。

参考资料来源:

参考资料来源:

谷歌人工智能写作项目:小发猫

2、机器人索菲亚其实是一场彻头彻尾的骗局吗?

YannLeCun 终于还是没忍住,站了出来,怒喷机器人索菲亚是一场彻头彻尾的骗局神经网络之父是谁。YannLeCun 是全球人工智能领域「神一般的人物」,被业界誉为「卷积神经网络之父」。他是纽约大学终身教授,创办了纽约大学数据科学中心,扎克伯格则让他统领 Facebook 人工智能实验室。

1 月 4 日,他在美国科技媒体 Business Insider 上看到了一段对机器人索菲亚的采访视频。视频里,索菲亚延续了自己一贯以来和人类谈笑风生的风格。

「索菲亚之于 AI,就像魔术之于真正的魔法。也许我们应该把这称为『货物崇拜』、『AI 界的波将金村』或者是『AI 版的《绿野仙踪》』。换句话说,这根本就是扯淡。至于 Tech Insider,你也是这起骗局的帮凶之一。」

机器人索菲亚出自美国公司 Hanson Robotics 之手,这家公司的创始人戴维·汉森在读博时发明了一种仿生材料,可以模仿人的面部肌肉纤维,受到挤压后,还能产生皱纹。这种材料让索菲亚在外观上比其他机器人更像人。

同时,索菲亚还会通过摄像头,借助计算机视觉技术,观察、识别身边人的动作、表情,并作出相应回应。当别人大笑时,她也笑,当别人哭泣时,她也悲伤。这种接近人与人之间情感共鸣的表现,往往让初次见到索菲亚的人惊叹不已。

索菲亚本应到此为止,以目前人工智能发展的阶段,她离自我意识觉醒还很远。但 Hanson Robotics 作为逐利的商业公司,决定强行助推她再往前走一步,用满是噱头的事件不停营销自己。

3、关于冯.诺依曼的介绍?

约翰·冯·诺依曼出生于匈牙利的美国籍犹太人数学家,现代电子计算机与博弈论的重要创始人,在泛函分析、遍历理论、几何学、拓扑学和数值分析等众多数学领域及计算机学、量子力学和经济学中都有重大贡献。

冯·诺伊曼从小就以过人的智力与记忆力而闻名。冯·诺伊曼一生中发表了大约150篇论文,其中有60篇纯数学论文,20篇物理学以及60篇应用数学论文。他最后的作品是一个在医院未完成的手稿,后来以书名《计算机与人脑》发布,表现了他生命最后时光的兴趣方向。

扩展资料

学术成就:

1、遍历论

遍历论主要涉及动态系统和不变测度。1932年,冯诺依曼发表了一系列有关遍历论的论文,为遍历论的理论基础做出了贡献。[3]保罗·哈尔莫斯在1932年的一篇遍历论文章中指出“假使冯诺依曼在其它领域没有成就,光这些也足以让他在数学史上留下不朽之名”。

2、算子理论

冯诺依曼在“冯诺依曼代数”中提出了“算子环”的概念。冯诺依曼代数是一种定义于希尔伯特空间的有界算子的星代数,近似于弱算子拓扑,且包含有恒等算子。以他命名的冯诺依曼二重交换元定理表明弱算子拓扑中闭包的分析学定义会与其二重交换元所成集合的纯代数学定义等价。

参考资料来源:

4、人工智能的起源是什么?

人工智能(Artificial Intelligence), 英文缩写为 AI, 是一门由计算机科学、控制论、信息论、语言学、神经生理学、心理学、数学、哲学等多种学科相互渗透而发展起来的综合性新学科。自问世以来AI经过波波折折,但终于作为一门边缘新学科得到世界的承认并且日益引起人们的兴趣和关注。不仅许多其他学科开始引入或借用AI技术,而且AI中的专家系统、自然语言处理和图象识别已成为新兴的知识产业的三大突破口。

人工智能的思想萌芽可以追溯到十七世纪的巴斯卡和莱布尼茨,他们较早萌生了有智能的机器的想法。十九世纪,英国数学家布尔和德o摩尔根提出了“思维定律“,这些可谓是人工智能的开端。十九世纪二十年代,英国科学家巴贝奇设计了第一架“计算机器“,它被认为是计算机硬件,也是人工智能硬件的前身。电子计算机的问世,使人工智能的研究真正成为可能。

作为一门学科,人工智能于1956年问世,是由“人工智能之父“McCarthy及一批数学家、信息学家、心理学家、神经生理学家、计算机科学家在Dartmouth大学召开的会议上,首次提出。对人工智能的研究,由于研究角度的不同,形成了不同的研究学派。这就是:符号主义学派、连接主义学派和行为主义学派。

传统人工智能是符号主义,它以Newell和Simon提出的物理符号系统假设为基础。物理符号系统是由一组符号实体组成,它们都是物理模式,可在符号结构的实体中作为组成成分出现,可通过各种操作生成其它符号结构。物理符号系统假设认为:物理符号系统是智能行为的充分和必要条件。主要工作是“通用问题求解程序“(General Problem Solver, GPS):通过抽象,将一个现实系统变成一个符号系统,基于此符号系统,使用动态搜索方法求解问题。

连接主义学派是从人的大脑神经系统结构出发,研究非程序的、适应性的、大脑风格的信息处理的本质和能力,研究大量简单的神经元的集团信息处理能力及其动态行为。

人们也称之为神经计算。研究重点是侧重于模拟和实现人的认识过程中的感觉、知觉过程、形象思维、分布式记忆和自学习、自组织过程。

行为主义学派是从行为心理学出发,认为智能只是在与环境的交互作用中表现出来。

人工智能的研究经历了以下几个阶段:

第一阶段:50年代人工智能的兴起和冷落

人工智能概念首次提出后,相继出现了一批显著的成果,如机器定理证明、跳棋程序、通用问题s求解程序、LISP表处理语言等。但由于消解法推理能力的有限,以及机器翻译等的失败,使人工智能走入了低谷。这一阶段的特点是:重视问题求解的方法,忽视知识重要性。

第二阶段:60年代末到70年代,专家系统出现,使人工智能研究出现新高潮

DENDRAL化学质谱分析系统、MYCIN疾病诊断和治疗系统、PROSPECTIOR探矿系统、Hearsay-II语音理解系统等专家系统的研究和开发,将人工智能引向了实用化。并且,1969年成立了国际人工智能联合会议(International Joint Conferences on Artificial Intelligence即IJCAI)。

第三阶段:80年代,随着第五代计算机的研制,人工智能得到了很大发展

日本1982年开始了“第五代计算机研制计划“,即“知识信息处理计算机系统KIPS“,其目的是使逻辑推理达到数值运算那么快。虽然此计划最终失败,但它的开展形成了一股研究人工智能的热潮。

第四阶段:80年代末,神经网络飞速发展

1987年,美国召开第一次神经网络国际会议,宣告了这一新学科的诞生。此后,各国在神经网络方面的投资逐渐增加,神经网络迅速发展起来。

第五阶段:90年代,人工智能出现新的研究高潮

由于网络技术特别是国际互连网的技术发展,人工智能开始由单个智能主体研究转向基于网络环境下的分布式人工智能研究。不仅研究基于同一目标的分布式问题求解,而且研究多个智能主体的多目标问题求解,将人工智能更面向实用。另外,由于Hopfield多层神经网络模型的提出,使人工神经网络研究与应用出现了欣欣向荣的景象。人工智能已深入到社会生活的各个领域。

IBM公司“深蓝“电脑击败了人类的世界国际象棋冠军,美国制定了以多Agent系统应用为重要研究内容的信息高速公路计划,基于Agent技术的Softbot(软机器人)在软件领域和网络搜索引擎中得到了充分应用,同时,美国Sandia实验室建立了国际上最庞大的“虚拟现实“实验室,拟通过数据头盔和数据手套实现更友好的人机交互,建立更好的智能用户接口。图像处理和图像识别,声音处理和声音识别取得了较好的发展,IBM公司推出了ViaVoice声音识别软件,以使声音作为重要的信息输入媒体。国际各大计算机公司又开始将“人工智能“作为其研究内容。人们普遍认为,计算机将会向网络化、智能化、并行化方向发展。二十一世纪的信息技术领域将会以智能信息处理为中心。

目前人工智能主要研究内容是:分布式人工智能与多智能主体系统、人工思维模型、知识系统(包括专家系统、知识库系统和智能决策系统)、知识发现与数据挖掘(从大量的、不完全的、模糊的、有噪声的数据中挖掘出对我们有用的知识)、遗传与演化计算(通过对生物遗传与进化理论的模拟,揭示出人的智能进化规律)、人工生命(通过构造简单的人工生命系统(如:机器虫)并观察其行为,探讨初级智能的奥秘)、人工智能应用(如:模糊控制、智能大厦、智能人机接口、智能机器人等)等等。

人工智能研究与应用虽取得了不少成果,但离全面推广应用还有很大的距离,还有许多问题有待解决,且需要多学科的研究专家共同合作。未来人工智能的研究方向主要有:人工智能理论、机器学习模型和理论、不精确知识表示及其推理、常识知识及其推理、人工思维模型、智能人机接口、多智能主体系统、知识发现与知识获取、人工智能应用基础等。

5、carol reiley是华人吗

Carol Reiley是华裔!
【引证资料】
吴恩达:创造不可限量的未来
21世纪经济报道 张勇 曾宪超 谈钊 硅谷、北京报道 2014-05-24 00:53:01 评论(0)条 移动客户端
吴恩达 创造 未来 机器人 人工智能
核心提示:人工智能的未来不可限量,这是无论硅谷还是世界上任何一个类似硅谷的地方都认同的说法。
21世纪经济报道 吴恩达无疑是硅谷的一个传奇人物,其实并不需要很多标签来表述。
但提起他,永远都逃不开这一连串带着惊叹号的履历:他是全世界人工智能和深度学习的泰斗级人物,是谷歌大脑的缔造者,是斯坦福大学人工智能实验室的主任,同时还是MOOK巨头Coursera的创始人。
从还是孩童起便梦想发明一种像人类一样思考、学习的机器,之后经历了许多的挫败和颠覆性的顿悟,终于在8年前触摸到坚守多年的理想之光。而后的故事,我们都知道了。
2014年对于吴恩达来说是很不平凡的一年。就在前不久,他完成了人生中重要的一件事,与他的同领域华裔女友在美国举办了婚礼。两人的甜蜜合影一公布便收到数不清的祝福,有人甚至把这一私事称为“也许是人工智能发展史上历史性的一刻。”
人工智能的未来不可限量,这是无论硅谷还是世界上任何一个类似硅谷的地方都认同的说法。数据挖掘、深度学习、智能系统乃至于下一代计算机的构造,任何突破,都在以人类梦想设计现实。而吴恩达迎向的,是一个充满爆炸性奇迹的不可限量的未来。
在线教育之梦
2012年初,Coursera的诞生是全球在线学习的一个标志性事件。在创始人吴恩达的生日那天,被称为引领在线教育海啸的Coursera正式上线,吴恩达的机器学习讲课视频作为最早的几个课程被放到网上,点击率瞬间爆表。Coursera也被评为了2012年度美国最佳创业公司。
在接受特约记者专访时,吴恩达曾动情地告诉我们他对于教育的期冀:“我想让全世界所有的人都能随时随地接受最好的高等教育。我希望人的成功是立足于他们的胆量、勤奋以及智慧,而不是依赖着家庭、地位和出身。我想看到,每一个人都能有通过受教育取得为他们自己、他的家庭、他所在的社会创造美好和价值的平等机会。”
他的心愿通过Coursera正在得以实现。记者得知,不久前,Coursera因为人数扩张到100多人而搬了新家,并在全球拥有了750万注册用户。呈几何级增长的背后,来自全球的学生通过这个网站学习到了涵盖100多所顶尖高校12种语言的优质课程,其中有昆曲之美、秦始皇等中文课,以及复旦大学、上海交通大学、香港中文大学和台湾大学的内容。美国教育委员会也官方认可了其中部分课程可转化为相应学分。
今年年初Coursera又提供了一个新的项目,让学生不仅可以学一门课程,还可以学连续的进阶的课程,目前最受欢迎的是安卓的变成。通过这个项目,学生可以选择其中的三门安卓的编程,学完之后还可以做一个大型的课程设计的项目。Coursera会将你作为课程毕业设计的作者帮助联系一些安卓的开发者来进行评估,从而让学生对自己的学习内容理解更深刻,并获得更多的指导和机会。
吴恩达说这些可能还将会更多。他还说到与此带来的数字化挖掘。
让吴恩达真正脸上透露出掩不住喜悦的是数字挖掘。他告诉我们在Coursera创办的第一年所收集到的数据就比人类五千年教育史上采集到的综合还要多。而根据这些数据,可以深度挖掘出不同国家和地区学生的学习内容、习惯,并根据各自不同的情况进行个性化内容的推送。他表示Coursera给每个学生发的邮件都是不一样的,而且还会在过程中测试各种不同的算法。据吴恩达所说,目前所有已知的算法都在Coursera上试了一遍。
很多高校已经通过Coursera让吴恩达所说的“翻转课堂”的实践成为了可能。在吴恩达看来,“翻转教室”正是将在线教育和传统教育的优势结合起来的一种非常科学而高效的教育形态。学生可以自行在家或者在任何地方通过网络听完课程写完练习,然后到一个教室(或是发展成熟的广义平台)进行互动。
本月于北京召开的全球移动化联网大会上,吴恩达向所有人介绍了Coursera新任命的CEO,并发表了演讲。今后,吴恩达将担任Coursera的董事长职位,且负责Coursera在中国的长期发展。关于教育,他的演讲中有同样动人的一段话:
“我认为教育事业是给人力量的一个事业,有了教育之后你可以去编程、你可以去再教别人,你还可以为自己的孩子去烹饪健康的食品,你还可以活得更久、活得更健康。我觉得在Coursera有了这样的一种技术,可以使我们自己还有大学的合作伙伴在全球把这种力量赋予全球的每一个公民。未来我们的目标就是要实现全面的教育的获得,让未来不再是一个乌托邦式的梦想,这就是我们的使命。未来,全球每一个人都应该免费的能够获得优质的教育。”
人工智能之父
吴恩达的科研史几乎就是人工智能领域的断代史。2010年,已然是学界领军者的吴恩达加入谷歌开发团队XLab;2012年其开发的人工神经网络通过观看一周YouTube视频,自主学会了识别猫的视频,这是人工智能领域的一个里程碑。
童年的梦想步步照进现实。尽管现有技术对于人类大脑数以亿计的神经元如何互相连结尚还在摸索,对于中枢神经系统存储和处理信息的原理仍然在不断完善,但他亲身所历的人工智能领域的爆发式革命让他惊叹这一切发展得如此之快,让他有信心能在未来看到与人脑媲美的机器,实现儿时的念想。
2011年,吴恩达正式在谷歌领导建立了Google Brain项目,随后谷歌便在深度学习领域迅速推行了一系列动作。参与并引领了这场业界革命的吴恩达欣喜看到,世界上越来越多的国家和地区开始对深度学习高度重视,大量技术和资源向这个领域明显倾斜。
中国的科学家正在研究一个名为“脑网络穹顶”(Brainnetdome)的新的大脑图谱;中国搜索巨头百度在硅谷成立了深度学习实验室;日本工程师在构建控制机器人的人工神经网络;南非神经科学家亨利·马克曼与来自欧盟和以色列的科学家们合作,试图利用数千次实验得到的数据在一台超级计算机中模拟出人脑。其他科技巨头公司如微软和高通也都开始招聘和聘请更多研究“基于神经科学的计算机算法”的科学家。
而美国国内,大量项目资金投向了深度学习领域。奥巴马政府宣布将支持筹建一项名为“脑计划”(BRAIN)的跨学科的科研项目,其全称是“基于神经科学技术创新的人脑研究”(Brain Research Through Advancing Innovative Neurotechnologies Initiative,简写为BRAIN项目)。
有数据显示,美国政府对这项工作重心为人工智能的BRAIN项目拨款的1.1亿美元中,一半来自美国国防部高级研究项目局,超过了美国国立卫生研究院的拨款数。美国国立卫生研究院特地为此发布了一个指南,计划用3年时间集中研究6类领域,研发观察大脑神经元的新技术和新方法。美国国防部研究部门称,希望 BRAIN项目能够“催生新的信息处理架构或者计算方法”。
在美国推出BRAIN计划前,欧盟委员会宣布投入10亿欧元资助“未来与新兴技术(FET)”竞赛的旗舰项目之一的“人脑工程(Human Brain Project)”。2014年3月,两项计划展开合作。并就合作的程度、数据共享的问题以及彼此的科学进展进行协商,以期在尽量不重复彼此工作的前提下使研究覆盖尽可能多的领域。
“大神经网络时代”已到来。深度学习已是计算机科学发展的大势所趋。人工智能之父吴恩达用一个童年梦想,某种程度上点亮了未来。
“I‘m from greater China”
比起Andrew Y Ng来说,吴恩达这个中文名似乎听起来更亲切一些。他的身份看起来有一点“复杂”:1976年吴恩达出生在英国,父亲是香港当地的一名医生。吴恩达在香港长大,随后前往新加坡和美国学习,于2002年获得了加州大学伯克利分校的博士学位,之后便一直在美国从事科研工作。
作为一名华裔科学家,吴恩达与中国的交流互动一直非常频繁。
接受采访的时候,他不止一次说道:“I‘m from greater China。”他不时以人气嘉宾的身份出现在清华北大的演讲中,他来回飞中国多次促成Coursera与中国高校以及网易等的合作。就在5月16日,中国最大的搜索引擎公司百度的内部邮件中公布,吴恩达将正式出任百度硅谷首席科学家职务,负责百度深度学习研究院的工作。
吴恩达的加入,是中国互联网界迄今为止引进的最为重量级外援。
早期,吴恩达与他的团队开发了世界上最先进的自动控制直升机之一。那时,他也一直从事斯坦福的人工智能机器人项目,项目最终开发了广泛使用的开源机器人技术软件平台ROS。2011年投入Google Brain后吴恩达便一直专注于深度学习领域。
这名大神级外援其实一直以来都是百度的专家顾问,去年起已在帮助位于硅谷的百度深度实验室招人,因为百度的深度实验室距离google只有不到十公里,而从去年起,吴恩达便不止一次来到百度北京办公所在地进行指导和交流。
加上刚刚与同领域且同为华裔的Carol Reiley结婚,2014年对于吴恩达来说是名符其实的“中国年”。
作为一个希望以自身努力对这个世界做推动的人,无论是中国美国,是科技还是教育,或许从普世价值上来说,对于吴恩达都是一样的。
对吴恩达来说,有一个学术上甚至是人生上的节点,给他的影响是不可磨灭的。这便是在八年前,在他一度濒临放弃学术研究时很偶然地接触到了一种当时“并不入流”的理论:“人类的智慧源于单一的算法。”也就是说不同区域的功能包括大脑,都是在后天调试和执行中产生的,但本质上算法完全一样。一瞬间,他悟了。随后,便是他的硅谷传奇人生。
今天,对于Coursera在中国的推行,他不遗余力去做;对于深度学习在中国的发展,他也心怀热忱。他希望让数以亿计的中国学生和美国以及世界同步,随时接受到最好的高等教育,也希望科技的力量能够带给全人类更智能的生活方式和充满更多可能的未来。
或许因为他的心一直和中国贴得很近,还因为,他相信,相隔得再远,“但本质都一样”,就和那个改变了他人生的理论说的那样。(编辑张勇) 返回21世纪网首页>>
请采纳~

6、新型神经网络芯片会对科技领域乃至整个世界产生什么巨大影响

一、与传统计算机的区别1946年美籍匈牙利科学家冯·诺依曼提出存储程序原理,把程序本身当作数据来对待。此后的半个多世纪以来,计算机的发展取得了巨大的进步,但“冯·诺依曼架构”中信息存储器和处理器的设计一直沿用至今,连接存储器和处理器的信息传递通道仍然通过总线来实现。随着处理的数据量海量地增长,总线有限的数据传输速率被称为“冯·诺依曼瓶颈”——尤其是移动互联网、社交网络、物联网、云计算、高通量测序等的兴起,使得‘冯·诺依曼瓶颈’日益突出,而计算机的自我纠错能力缺失的局限性也已成为发展障碍。
结构上的缺陷也导致功能上的局限。例如,从效率上看,计算机运算的功耗较高——尽管人脑处理的信息量不比计算机少,但显然而功耗低得多。为此,学习更多层的神经网络,让计算机能够更好地模拟人脑功能,成为上世纪后期以来研究的热点。
在这些研究中,核心的研究是“冯·诺依曼架构”与“人脑架构”的本质结构区别——与计算机相比,人脑的信息存储和处理,通过突触这一基本单元来实现,因而没有明显的界限。正是人脑中的千万亿个突触的可塑性——各种因素和各种条件经过一定的时间作用后引起的神经变化(可变性、可修饰性等),使得人脑的记忆和学习功能得以实现。
大脑有而计算机没有的三个特性:低功耗(人脑的能耗仅约20瓦,而目前用来尝试模拟人脑的超级计算机需要消耗数兆瓦的能量);容错性(坏掉一个晶体管就能毁掉一块微处理器,但是大脑的神经元每时每刻都在死亡);还有不需为其编制程序(大脑在与外界互动的同时也会进行学习和改变,而不是遵循预设算法的固定路径和分支运行。)
这段描述可以说是“电”脑的最终理想了吧。
注:最早的电脑也是模拟电路实现的,之后发展成现在的只有0、1的数字CPU。
今天的计算机用的都是所谓的冯诺依曼结构,在一个中央处理器和记忆芯片之间以线性计算序列来回传输数据。这种方式在处理数字和执行精确撰写的程序时非常好用,但在处理图片或声音并理解它们的意义时效果不佳。
有件事很说明问题:2012年,谷歌展示了它的人工智能软件在未被告知猫是什么东西的情况下,可以学会识别视频中的猫,而完成这个任务用到了1.6万台处理器。
要继续改善这类处理器的性能,生产商得在其中配备更多更快的晶体管、硅存储缓存和数据通路,但所有这些组件产生的热量限制了芯片的运作速度,尤其在电力有限的移动设备中。这可能会阻碍人们开发出有效处理图片、声音和其他感官信息的设备,以及将其应用于面部识别、机器人,或者交通设备航运等任务中。
神经形态芯片尝试在硅片中模仿人脑以大规模的平行方式处理信息:几十亿神经元和千万亿个突触对视觉和声音刺激物这类感官输入做出反应。
作为对图像、声音等内容的反应,这些神经元也会改变它们相互间连接的方式,我们把这个过程叫做学习。神经形态芯片纳入了受人脑启发的“神经网路”模式,因此能做同样的事。
人工智能的顶尖思想家杰夫·霍金斯(Jeff Hawkins)说,在传统处理器上用专门的软件尝试模拟人脑(谷歌在猫实验中所做的),以此作为不断提升的智能基础,这太过低效了。
霍金斯创造了掌上电脑(Palm Pilot),后来又联合创办了Numenta公司,后者制造从人脑中获得启发的软件。“你不可能只在软件中建造它,”他说到人工智能,“你必须在硅片中建造它。”
现有的计算机计算,程序的执行是一行一行执行的,而神经网络计算机则有所不同。
现行的人工智能程式,基本上都是将大大小小的各种知识写成一句一句的陈述句,再灌进系统之中。当输入问题进去智能程式时,它就会搜寻本身的资料库,再选择出最佳或最近解。2011年时,IBM 有名的 Watson 智能电脑,便是使用这样的技术,在美国的电视益智节目中打败的人类的最强卫冕者。
(神经网络计算机)以这种异步信号发送(因没有能使其同步的中央时钟而得名)处理数据的速度比同步信号发送更快,以为没有时间浪费在等待时钟发出信号上。异步信号发送消耗的能量也更少,这样便满足了迈耶博士理想的计算机的第一个特点。如果有一个处理器坏了,系统会从另一路线绕过它,这样便满足了迈耶博士理想的计算机的第二个特点。正是由于为异步信号发送编程并不容易,所以大多数计算机工程师都无视于此。然而其作为一种模仿大脑的方式堪称完美。功耗方面:
硬件方面,近年来主要是通过对大型神经网络进行仿真,如 Google 的深度学习系统Google Brain,微软的Adam等。但是这些网络需要大量传统计算机的集群。比方说 Google Brain 就采用了 1000 台各带 16 核处理器的计算机,这种架构尽管展现出了相当的能力,但是能耗依然巨大。而 IBM 则是在芯片上的模仿。4096 个内核,100 万个“神经元”、2.56 亿个“突触”集成在直径只有几厘米的方寸(是 2011 年原型大小的 1/16)之间,而且能耗只有不到 70 毫瓦。
IBM 研究小组曾经利用做过 DARPA 的NeoVision2 Tower数据集做过演示。它能够实时识别出用 30 帧每秒的正常速度拍摄自斯坦福大学胡佛塔的十字路口视频中的人、自行车、公交车、卡车等,准确率达到了 80%。相比之下,一台笔记本编程完成同样的任务用时要慢 100 倍,能耗却是 IBM 芯片的 1 万倍。
Ref: A million spiking-neuron integrated circuit with a scalable communication network and interface. Paul A. Merolla et al. Science 345, 668 (2014); DOI: 10.1126/science.1254642
因为需要拥有极多数据的Database 来做training以及需要极强大的计算能力来做prediction,现有的一些Deep learning如Andrew Ng的Google Brain、Apple的Siri等都需要连接网络到云端的服务器。
二、争议:
虽然深度学习已经被应用到尖端科学研究及日常生活当中,而 Google 已经实际搭载在核心的搜寻功能之中。但其他知名的人工智能实验室,对於深度学习技术的反应并不一致。例如艾伦人工智慧中心的执行长 Oren Etzioni,就没有考虑将深度学习纳入当前开发中的人工智慧系统中。该机构目前的研究是以小学程度的科学知识为目标,希望能开发出光是看学校的教科书,就能够轻松应付各类考试的智能程式。Oren Etzioni 以飞机为例,他表示,最成功的飞机设计都不是来自於模仿鸟的结构,所以脑神经的类比并无法保证人工智能的实现,因此他们暂不考虑借用深度学习技术来开发这个系统。
但是从短期来看,情况也许并没有那么乐观。
首先芯片的编程仍然是个大问题。芯片的编程要考虑选择哪一个神经元来连接,以及神经元之间相互影响的程度。比方说,为了识别上述视频中的汽车,编程人员首先要对芯片的仿真版进行必要的设置,然后再传给实际的芯片。这种芯片需要颠覆以往传统的编程思想,尽管 IBM 去年已经发布了一套工具,但是目前编程仍非常困难,IBM 团队正在编制令该过程简单一点的开发库。(当然,如果我们回顾过去编程语言从汇编一路走来的历史,这一点也许不会成为问题。)
其次,在部分专业人士看来,这种芯片的能力仍有待证实。
再者,真正的认知计算应该能从经验中学习,寻找关联,提出假设,记忆,并基于结果学习,而IBM 的演示里所有学习(training)都是在线下的冯诺依曼计算机上进行的。不过目前大多数的机器学习都是离线进行的,因为学习经常需要对算法进行调整,而 IBM 的硬件并不具备调整的灵活性,不擅长做这件事情。
三、人造神经元工作原理及电路实现
人工神经网络
人工神经网络(artificial neural network,缩写ANN),简称神经网络(neural network,缩写NN),是一种模仿生物神经网络的结构和功能的数学模型或计算模型。
神经网络是一种运算模型,由大量的节点(或称“神经元”,或“单元”)和之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。Ref:Wikipedia: 人工神经网络
电路原理
神经递质的分泌反过来又是对动作电位刺激的反应。然而神经元在接收到这些神经递质信号中的一个后便不会再继续发出动作电位。当然,它们会逐渐累加至一个极限值。在神经元接受了一定数量的信号并超过极限值后----从根本上讲是一个模拟进程----然后它们会发出一个动作电位,并自行重置。Spikey的人造神经元也是这么做的,当它们每次受到激发时都会在电容中累积电荷,直至达到限值,电容再进行放电。具体电路结构和分析之后有机会的话再更新。
现阶段硬件的实现方式有数电(IBM、Qualcomm)、模电、数模混合(学界)、GPUs等等,还有各种不是基于硅半导体制程制作的神经元等的device方面的研究。
四、历史
Neuromorphic engineering由老祖宗Carver Mead提出
卡福·米德是加州理工学院的一名工程师,被公认为神经形态计算机之父(当然还发明了“神经形态学”这个词)
神经形态芯片的创意可以追溯到几十年前。加州理工大学的退休教授、集成电路设计的传奇人物卡弗·米德(Carver Mead)在1990年发表的一篇论文中首次提出了这个名称。
这篇论文介绍了模拟芯片如何能够模仿脑部神经元和突触的电活动。所谓模拟芯片,其输出是变化的,就像真实世界中发生的现象,这和数字芯片二进制、非开即关的性质不同。
后来这(大脑研究)成为我毕生的工作,我觉得我可以有所贡献,我尝试离开计算机行业而专注大脑研究。首先我去了MIT的人工智能研究院,我想,我也想设计和制作聪明的机器,但我的想法是先研究大脑怎么运作。而他们说,呃,你不需要这样做,我们只需要计算机编程。而我说,不,你应该先研究大脑。他们说,呃,你错了。而我说,不,你们错了。最后我没被录取。但我真的有点失望,那时候年轻,但我再尝试。几年后再加州的Berkley,这次我尝试去学习生物方面的研究。我开始攻读生物物理博士课程。我在学习大脑了,而我想学理论。而他们说,不,你不可以学大脑的理论,这是不可以的,你不会拿到研究经费,而作为研究生,没有经费是不可以的。我的天。
八卦:老师说neural network这个方向每20年火一次,之前有很长一段时间的沉寂期,甚至因为理论的不完善一度被认为是江湖术士的小把戏,申请研究经费都需要改课题名称才能成功。(这段为小弟的道听途说,请大家看过就忘。后来看相关的资料发现,这段历史可能与2006年Geoffrey E. Hinton提出深度学习的概念这一革命性工作改变了之前的状况有关。)
五、针对IBM这次的工作:
关于 SyNAPSE
美国国防部先进研究项目局的研究项目,由两个大的group组成:IBM team和HRL Team。
Synapse在英文中是突触的意思,而SyNAPSE是Systems of Neuromorphic Adaptive Plastic Scalable Electronics的简称。
Cognitive computing: Neurosynaptic chips
IBM produces first working chips modeled on the human brain
另一个SyNAPSE项目是由IBM阿尔马登实验室(位于圣何塞)的达尔门德拉·穆德哈负责。与四所美国大学(哥伦比亚大学,康奈尔大学,加州大学默塞德分校以及威斯康辛-麦迪逊大学)合作,穆德哈博士及其团队制造了一台神经形态学计算机的原型机,拥有256个“积分触发式”神经元,之所以这么叫是因为这些神经元将自己的输入累加(即积分)直至达到阈值,然后发出一个信号后再自行重置。它们在这一点上与Spikey中的神经元类似,但是电子方面的细节却有所不同,因为它们是由一个数字储存器而非许多电容来记录输入信号的。
Ref: A million spiking-neuron integrated circuit with a scalable communication network and interface. Paul A. Merolla et al. Science 345, 668 (2014); DOI: 10.1126/science.1254642

7、美国和日本的哪所大学人工智能,计算机专业比较好

美国无疑是MIT最好,其次是斯坦福、卡内基梅隆、加州大学伯克利分校、华盛顿大学、德州大学奥斯丁分校、宾州大学、康奈尔等。日本我知道东京大学,早稻田大学这方面比较强,但这个我了解不够全面。 计算机也是上述几个大学排名最前(硕士),另外加上普林斯顿和佐治亚理工学院。 日本查了一下资料,排名是:1 东京大学
3 Kyoto University 京都大学
5 University of Tsukuba 筑波大学
12 Nagoya University 名古屋大学
13 Osaka University 大阪大学
15 Keio University 庆应义塾大学
27 Tokyo Institute of Technology 东京工业大学
28 Kyushu University 九州大学
36 Kobe University 神户大学
48 Okayama University 冈山大学
54 Ritsumeikan University 立命馆大学
55 Hiroshima University 广岛大学
实际上早稻田在计算机方面也是很强的。

你可能感兴趣的:(神经网络,人工智能,神经网络,深度学习)