2017年高性能计算领域的成功与失败

2017年高性能计算领域的成功与失败_第1张图片

来源:中科院信息科技战略情报

概要:2017年,机器学习和各种人工智能应用在高性能计算领域持续发挥着重要影响力。


2017年12月9日,TOP500官网刊文总结了高性能计算在2017年取得的新进展,以及未来发展趋势,主要内容如下所示。


1、机器学习技术成为高性能计算的杀手级应用


2017年,机器学习和各种人工智能应用在高性能计算领域持续发挥着重要影响力。随着越来越复杂的神经网络模型被开发和应用,智能搜索引擎、广告投放、语言翻译以及图像识别等应用变得越来越智能。机器学习技术与传统高性能计算技术的结合成为新的发展趋势。


在天气建模、金融风险分析、天体物理建模以及医学诊断等特殊应用中,开发人员越来越依靠机器学习技术来提高模型准确率及模型实现速度。同时,传统的超算平台在机器学习算法的研发过程中发挥着越来越重要的作用。由于超级计算机中图形图像处理单元(GPU)的功能越来越强大,它们也担负起越来越多的机器学习研究任务。


2、英伟达公司的Volta GPU在深度学习领域表现强劲


英伟达公司推出VoltaV100 GPU,巩固了其在人工智能领域的统治地位。VoltaV100 GPU是Volta架构下的首款高性能GPU,每个内核具有高达120万亿次(teraflops)的深度学习能力,并可以在任何具有备用PCIe端口的机器上部署使用。亚马逊、微软和百度等公司将相继使用该设备。


除了超强的深度学习能力以外,V100 GPU的双精度浮点运算能力可以达到每秒7 teraflops,使其同样适合传统的高性能计算机的配置。美国能源部的两台功能最强大的超级计算机Summit和Sierra都将配置该GPU。在该款GPU的推动下,Volta架构能同时满足传统的高性能计算机与最新的机器学习应用的需求。


3、英特尔探索近百亿亿次超算,抛弃Knights Hill产品


2017年10月,美国能源部发布报告表示,将取消于2018年在阿贡国家实验室部署180千万亿次(petaflop)超级计算机Aurora的计划。这台超级计算机原计划将使用英特尔的下一代至强(Xeon Phi)处理器——Knights Hill。而现在,Aurora将在2020-2021年间被新打造为一个具有接近百亿亿次运算能力的新系统。11月份,英特尔透露他们已放弃Knights Hill产品,尚未公布任何有关Xeon Phi产品线的替代路线图。


4、AMD产品试图替代英特尔和英伟达芯片


2017年6月,AMD公司推出EPYC芯片,这是该公司自皓龙(Opteron)处理器发布以来第一款可以替代英特尔Xeon处理器系列的产品。同英特尔在7月份推出的全新SkylakeXeon系列处理器相比,EPYC具有更多的核心数、更高的I/O连接以及更大的内存带宽。虽然EPYC错过了在2017国际超级计算大会(ISC 2017)上亮相的机会,但随后的第三方测试和它在全球超级计算大会(SC17)上的表现证明,EPYC处理器对提升很多高性能计算机的工作负荷具有一定的优势。


在SC17上,AMD在2016年12月发布的一款GPU——Radeon Instinct也受到了广泛的关注,该款GPU标志着AMD公司开始涉足机器学习领域。该款GPU虽然也能提供很强的浮点计算能力,但与英伟达V100的深度学习能力相比还是有很大的差距,因为英伟达公司在其产品上增加了专门用于加速神经网络模型的算术单元。因此,AMD公司转而选择通过更开放的GPU支持软件来吸引更多的用户。


5、凯为(Cavium)半导体公司成为ARM高性能计算的重点


2016年5月,Cavium公司推出第二代系统级芯片——ThunderX2 ARM处理器,直到2017年,该款产品才受到消费者和供应商的关注。该处理器凭借其良好的性能、超大内存带宽以及丰富的外部链接能力,战胜了很多ARM处理器厂商的产品。

2017年,Atos/Bull、Cray、HPE等公司相继选择ThunderX2 ARM处理器来支持其高性能计算机的设计。随着ARM生态日趋成熟,2018年高性能计算在框架设计方面有望取得重大突破。


6、微软在高性能计算领域的影响力逐渐提升


2017年8月,微软公司收购Cycle Computing公司,以加速其Azure公有云中的高性能计算,该举措大大提升了微软在高性能计算领域的竞争力。尽管微软仍在Azure云中为其客户提供NVIDIA GPU技术支持以满足他们对于高性能计算、数据分析以及深度学习任务的需求,但从长期来看微软还是在朝着大量应用现场可编程门阵列(FPGA)技术的方向发展。如果该计划最终能实现的话,微软有望引起那些更加注重计算性能的用户对可重构计算的兴趣,并最终成为这一技术领域的领导者。


7、量子计算成为研究热点


2017年,量子计算是高性能计算领域发展最快的技术之一。短时间内,量子计算从晦涩难懂的研究项目一跃成为各大公司竞相研究的技术。IBM和谷歌在2017年构建出功能越来越强大的量子计算机。IBM目前已经部署一台具有20量子位的机器供用户使用,并设计了一台具有50量子位的原型机。与此同时,谷歌正在部署一台具有22量子位的机器和一台49量子位的机器。


2017年10月,Intel公司也向外界公布了量子计算领域规划,并披露一款17量子位的处理器。同时,微软将会研发一种拓扑结构的量子计算机,虽然该计划还是处于研发阶段,但微软已经针对该技术研发成功了一个使用量子计算编程语言(Q#)的软件包。同时欧洲公司Atos/Bull在2017年推出了一款40量子位的量子模拟器,这是在硬件开发方面的一大进步。


8、百亿亿次计算研究遇到瓶颈


同上一年相比,2017年各个国家和地区在百亿亿次级运算项目方面的竞争逐渐缓和了下来。究其原因,可能是因为各个国家和地区的相关技术已基本成熟,现在更多的是按照自己的节奏往前发展。


有分析师指出,高性能计算的未来进展并不一定在于实现百亿亿次级别的计算能力,而是通过机器学习技术来实现相应的功能。高性能计算和机器学习技术的融合甚至可能会重新定义百亿亿次运算系统的模式。


未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。由互联网进化论作者,计算机博士刘锋与中国科学院虚拟经济与数据科学研究中心石勇、刘颖教授创建。


未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

2017年高性能计算领域的成功与失败_第2张图片

你可能感兴趣的:(2017年高性能计算领域的成功与失败)