针对《评人工智能如何走向新阶段》一文,继续发布国内外的跟贴留言427-438条如下:

427,SNN机理性测试

SNN利用时空处理,脉冲稀疏性和较高的内部神经元带宽来最大化神经形态计算的能量效率。尽管可以在这种情况下使用常规的基于硅的技术,但最终的神经元突触电路需要多个晶体管和复杂的布局,从而限制了集成密度。论文展示了双门高斯异质结晶体管的前所未有的静电控制,可简化尖峰神经元的实现。这些设备采用晶片级混合尺寸的范德华异质结,包括化学气相沉积的单层二硫化钼和溶液处理的半导体单壁碳纳米管,以模拟生物神经元中产生脉冲的离子通道。基于这些双门高斯器件的电路可以实现多种生物脉冲响应,包括相位脉冲,延迟脉冲和强音爆发。除神经形态计算外,可调高斯响应对一系列其他应用(包括电信,计算机视觉和自然语言处理)也具有重要意义。

 

428,脉冲神经网络SNN拟脑探索

隨着对生物大脑进行建模的计算机的需求不断增长,神经启发性计算机领域已发展到了脉冲神经网络(SNN)的探索,并克服了传统的冯-诺依曼架构所靣临的挑战,基于硬件的神经形态芯片已被设计。神经形态芯片基于脉冲神经元,仅当它们接收到脉冲信号才处理输入信息。给定稀疏分布的输入脉冲序列,由于可以将不受传入脉冲驱动的网络的大部分设置为功率门控模式,因此可以减少此类事件驱动硬件的功耗。在硬件中构建具有大量突触的脉冲神经形态芯片需要解决的挑战包括构建具有低功耗的小型脉冲神经核,高效的神经编码方案和轻量级的片上学习算法。在这篇论文中介绍了用于3D-NoCSNN处理器的轻量级脉冲神经元处理内核(SNPC)的硬件实现和评估,以及其片上学习模块的设计。SNPC嵌入256个Leaky integrate andFire(LIF)神经元和基于交叉开关的突触,覆盖0.12mm平方的芯片面积。使用MNIS丅数据集对其性能进行评估,得出的推理精度为97.55%。

参考https://ieeexplore.ieee.org/abstract/document/9070764

 

429,浪潮在全球人工智能顶级赛事中胜出

开发自动深度学习解决方案

人工智能学术会议NeurIPS举办的自动深度学习总决赛4月17日公布最终成绩,浪潮赛队在来自谷歌、微软、卡内基梅隆大学等众多赛队中胜出,位列第三。该大赛是全球人工智能领域的顶级赛亊,以难度大、赛题新、赛程长著称。

浪潮参赛队针对本次挑战赛开发了自动深度学习解决方案,将自动数据处理、自动模型构建、自动参数优化等核心组件进行全两面优化,实现了同一系统针对不同任务场景的全自动化模型构建。同时系统自动调试完成模型优化,大幅度提升了模型精度识别和算法优化效率。

 

430,新华网4月24日报导:中科院许晓鸿研究员团队在脑机接口研究中,针对“攻击行为如何被大脑控制?”课题研究时,在试验小鼠大脑中发现“调节开关。”

 

431,阿里云EMR在开源技术架构上在国内率先解决计算存储分离下的性能损耗以满足大规模场景需求

贾扬清团队攻克大数据性能瓶颈获两屆国际顶级赛事冠军

贾扬清(阿里云计算平台事业群总裁)团队攻克大数据计算性能瓶颈,阿里云EMR连续两年破世界记录。

4月26日,大数据领域权威竞赛TPC一DS公布最新结果,阿里云作为全球唯一入选的云计算公司获得第一。

EMR,ElasticMapReduce是阿里云大数据团队提供的一项Web服务,简化了大数据处理。

过去一年,阿里云EMR在原有开源技术架构上,自研JindoFS等创新技术,在国内率先解决了计算、存储分离下的性能损耗问题,可满足大规模计算场景的性能需求。

去年阿里云EMR首次打破该竞赛记录,成为全球首个通过TPC认证的公共云产品,今年在这一基础上,EMR的计算速度提升了2.2倍,连续两年打破了这项大数据领域最难竞赛的世界纪录。

 

 

432,Loihi—PohoikiSprings大规模神经拟态计算系统

今天,英特尔公布其迄今为止最大规模神经拟态计算系统PohoikiSprings,包含1亿个神经元!这一大小,堪比小型哺乳动物的大脑容量。

英特尔神经拟态计算实验室主任Mike Davies表示:“PohoikiSprings将我们的Loihi神经拟态研究芯片扩展了750倍以上,同时可在低于500W的功率水平下工作”。

如今,神经拟态计算已被普遍看作是解决人工智能等计算难题的重要途径。著名研究机构Gartner预测,到2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构。

与传统处理器相比,英特尔Loihi芯片速度快1000倍,能效高10000倍。

英特尔今天公布的PohoikiSprings进一步扩展,将768颗Loihi神经拟态研究芯片集成在5台标准服务器大小的机箱中,形成了一个更强大的机架式数据中心系统。

这一系统将提供给英特尔神经拟态研究社区(INRC)的成员,以扩展其神经拟态工作来解决更大规模且复杂的问题。

 

433,英特尔神经拟态计算实验室主任MikeDavies接受芯东西等媒体线上采访

提问:

从第一颗Loihi芯片诞生到如今发布最大神经拟态系统,英特尔神经拟态计算如何起步?

如今在各种计算架构中,英特尔神经拟态计算的技术特点是什么?它致力于解决哪些核心问题,又如何克服哪些技术挑战?

同样是支持大规模运算任务的前沿计算技术,神经拟态系统与量子系统有哪些不同?

隨着1亿神经元的PohoikiSprings系统问世,神经拟态计算发展到什么阶段?英特尔是否已有明确的商业计划?

Mike全面解读了英特尔神经拟态计算的研究进展、技术特性、应用示例与所面临的商业化挑战。

Mike告诉大家,英特尔不打算做面向特定应用的专用芯片,而是希望能让神经拟态计算实现和冯-诺依曼架构相似的通用性。

Mike说,距离将产品推向市场,还将等待数年。

 

434,英特尔MikeDavies解读神经拟态计算

研发像大脑一样聪明的自主学习芯片,灵感来自交换机和摇头娃娃。

大脑神经网络通过脉冲传递信息,根据脉冲时间调节突触强度或突触连接的权重,并把这些变化存储在突触连接处。大脑神经网络与其环境中多区域间相互作用,就产生了种种智能行为。它能同时学习语音任务、视觉任务、决策任务、操作控制等许多任务,并且仅仅消耗非常低的能量。

在自然界,很多昆虫大脑的神经元远低于100万个,就能做到实时视觉跟踪物体、导航和躲避障碍物。

那么在硬件层面上能不能复制大脑神经元组织、通信和学习方式,打造出一种更智能的系统呢?这种颠覆传统计算机架构的新型计算模式就是神经拟态计算。

英特尔神经拟态计算的研究始于几十年前与加州理工学院CarverMead教授的合作,他是半导体专家,今天我们需要芯片专业知识、物理学和生物学的结合,为这一创想提供了可行的土壤。MikeDavies是英特尔神经拟态计算实验室主仛,当年他在FulcrumMicrosystems研究以太网交换机,而交换机芯片异步设计适合于神经拟态芯片的原型架构、算法、软件和系统的研究,它采用一种新颖的异步脉冲方式来计算。怎么让Loihi芯片模拟大脑进行学习呢?在芯片上运行简单的图像识别神经网络,先是看到物体,再输入物体名称,训练后就能快速准确辨认出是什么东西,摇头娃娃给研究者很大启发,使训练后的Loihi芯片能从人堆中识别特定对象。

神经拟态计算较之传统计算架构的优势在于超低延时、超低功耗。

在谈到与量子计算比较时他说,英特尔现在已经有了可使用支持1亿神经元的神经拟态系统,但距离拥有1亿量子比特的计算系统还很遥远。

英特尔于2028年3月建立神经拟态研究社区(INRC),使用Loihi芯片为研发活动的架构焦点,推动神经拟态算法、软件和应用程序的研发。

最后他说,神经拟态系统仍处于研究初级阶段,其设计目的并非取代传统的计算系统。

除英特尔外,IBM、惠普、麻省理工学院、普渡大学、斯坦福大学等顶尖研究机构,都在推进类脑计算的相关研究。

前路依然漫长,研究人员终极目标是接近当今性能最强大的计算机——人类大脑。

 

435,科学家在小鼠脑中发现攻击行为“调节开关”

攻击行为是大多数动物重要的本能行为,也是躁狂症、双相情感障碍等精神疾病的表现形式。深入研究攻击行为发生的神经机制,可为病理性攻击行为提供新的治疗思路,最终为人类治疗病理性精神疾病服务。

由中科院神经科学研究所、上海脑科学与类脑研究中心、神经科学国家重点实验室许晓鸿研究员率领的研究团队对小鼠大脑皮层在攻击行为中的神经机制进行研究,在小鼠大脑中发现攻击行为的“调节开关”。

小鼠感知外界入侵者的刺激后,从调整自身状态,到最终输出攻击行为,整个过程需要大脑内一系列“核团”的参与。其中,主要以“下丘脑腹内侧核”为核心,其他脑区与其形成直接与间接的连接,参与攻击行为的发生。“下丘脑腹内侧核”属于皮层下结构。

他们的研究论文近日在国际权威学术期刊《细胞报导》(CellReports)上在线发表。

 

436,神经退行性疾病治疗曙光初现

人类的神经元系统包含成百上千种不同类型的神经元,这些纷繁复杂的细胞极其重要,但有个致命“弱点”:一般不会再生,即一旦死亡,就是永久性的。这就是人类患有的神经退行性疾病,目前全球患者约1亿人。

如何在体内安全再生出特异类型的神经元,用以治疗不同神经退行性疾病,这是全球众多科学家一直努力的方向。

由中科院神经科学研究所与上海脑科学与类脑研究中心联合组成的研究团队进行神经退行性疾病研究,他们的研究成果发表在顶级医学期刊《细胞》上(在线发表)。

他们首次在成体小鼠中成功实现视神经元再生,并恢复了永久性视力损伤模型小鼠的视力。这意味着小鼠的神经元也可再生了。该研究将为未来多种神经退行性疾病治疗提供一个新途径。

 

437,索尼将自己开发一款PlayStation5的游戏机配件引入其开发的新一代陪玩机器人,提升机器人的体验为可以感知玩家情绪,并作出应对。

索尼将这款机器人视觉化,让它看起来像云一样的生物,有眼睛、手臂和腿,被称为“陪玩机器人”,它不只停留在游戏上,还可陪玩家看电视、看电影。

通过在陪玩机器人上安装的摄像头和各类传感器,可实时观察和分析玩家的状态,判断玩家情绪、分辨玩家表情、分析玩家紧张程度、感知玩家情绪。

 

 

438,神经拟态计算技术PK传统人工智能加速技术

2017年,英特尔第一款自主学习神经拟态芯片Loihi问世(采用14nm工艺,每颗芯片125个内核,每个内核支持1000个神经元,单颗芯片支持13万个神经元、1.28亿个突触),接着开发PohoikiSprings(2020年3月发布),由768颗芯片集成组成神经网络支持1亿个神经元组网。从此Loihi发展成1亿神经元大规模的神经拟态计算系统。

神经拟态计算技术与传统的人工智能加速技术相比,有哪些技术特点?两者有哪些相同或不同?(包括所解决任务的不同)

神经拟态计算技术与人工智能加速技术两者都是为了处理人工神经网络而设计的,同样是支持大规模运算任务的前沿计算技术。

传统设计的AI芯片,即人工智能加速器是一类专用于人工智能(如人工神经网络、机器视觉、机器学习等)硬件加速的微处理器或计算机系统。据英特尔神经拟态计算实验室主任MikeDavies谈,英特尔不打算做面向特定应用的专用芯片,而是希望能让神经拟态计算实现通用性。

神经拟态计算与传统的人工智能加速器主要差异在哪里?

我们先从两者的定义出发:

众所周知,传统的AI芯片是一类专用于人工智能硬件加速的微处理器(CPU、GPU)或计算机系统。

所谓神经拟态计算技术是将人类大脑功能映射到硬件上,即直接用硬件(神经拟态芯片)来模拟人类大脑结构(这种方法叫神经拟态计算)。

两者最大区别在:

神经拟态技术研究类脑芯片严格按人脑的机制,将训练和推理整合到一块芯片(如Loihi)上,实现存储与计算融合;而基于传统冯-诺伊曼计算架构设计的AI芯片虽然声称是类脑芯片,但它并未严格按人脑机制,其训练与推理是分离的,存储与计算也是分离的。这样神经拟态计算技术变得更加智能、快速和高效,与传统处理器比,Loihi芯片速度快1000倍,能效高10000倍。

神经拟态计算技术相较传统架构的优势不在于吞吐量而在于超低延时和超低功耗。

国际著名IT调研分析公司Gartner认为:如今神经拟态计算已被普遍看作解决人工智能等计算难题的重要途径。预测到2025年,神经拟态芯片有望取代GPU成为先进人工智能部署的主要计算架构。

所谓Loihi芯片拥有并行性和异步信号传输能力,在这里谈到并行计算,公平地说两者是一样的,但神经拟态计算自然拥有异步信号传输能力的优势!它采用一种新颖的异步脉冲方式来计算,像人脑一样根据环境的反馈来自动学习如何操作,随着时间的推理,变得越来越智能、快速和高效。

以往国内外都在开发传统的专用的AI芯片(人工智能加速器),神经拟态系统仍处于初级研究阶段,但除英特尔外,IBM、惠普、麻省理工学院、普渡大学、斯坦福大学等顶尖研究机构,目前均在紧跟开展这方面的研究。

你可能感兴趣的:(评人工智能如何走向新阶段?,人工智能)