华为拿什么破解AI核心难题?

  OpenAI 近期发布的研究显示,仅 2012 年以来,人们对于算力的需求增长六年就超过 30 万倍,平均每年增长 10 倍,远远超过了摩尔定律的发展速度。

  众所周知,作为 AI 的后入局者,面对 AI 算力需求的爆发式增长,华为大胆地提出要为业界提供“易获取、用得起、方便用”的算力。如今,距离 AI 战略提出一年,华为是否已经找到算力破局的入口?

  这也是即将到来的 2019 华为全联接大会备受瞩目的重要原因。

  17 世纪后期,英国采矿业,特别是煤矿,已发展到相当的规模,单靠人力、畜力已难以满足排除矿井地下水的要求,而现场又有丰富而廉价的煤作为燃料。现实的需要促使人们致力于“以火力提水”的探索。1769 年英国人詹姆斯·瓦特制造了蒸汽机,引起了 18 世纪的第一次工业革命。

  100 年后,美国人发明和实现了电力的广泛使用,引领了 19 世纪的第二次工业革命。

  1946 年,世界第一台二进制计算机的发明,人类在 20 世纪进入了第三次工业革命,信息技术的发展尤其是移动互联网的普及极大地改变了人类的生活。

  进入 21 世纪,人类正在迎来以智能技术为代表的第四次工业革命,人工智能、物联网、5G 以及生物工程等新技术融入到人类社会方方面面;驱动全球宏观趋势的变化,如社会可持续发展,经济增长的新动能,智慧城市、产业数字化转型、消费体验等。

1
第四次工业革命的人工智能将引领人类进入新纪元

  人工智能是一系列新的通用目的技术(GPT),包括自然语言处理、图片识别、视频分析等。人工智能是信息化进程的新高度,信息技术带来了效率的提升,人工智能则带来生产成本的变化。行业 +AI,人工智能将会改变每个行业、每个职业、每个组织、每个家庭和每个人。

  第四次工业革命的人工智能将引领人类进入新纪元

  时代又仿佛回到了对采矿行业非生物动力需求极大的 17 世纪。进入 21 世纪,人工智能也对算力提出了强劲的增长需求,按照 OpenAI 最新的分析,从 2012 年到 2018 年,最大的人工智能训练运行中使用的算力增长了 30 多万倍,每 3.5 个月就会翻倍,远远超过了摩尔定律的增长速度(每 18 个月芯片的性能翻一倍)。AI 算力需求的急剧增长与传统 CPU 算力缓慢提升(每年 10%)之间存在巨大矛盾,全球掀起造芯运动,加速算力成本降低和 AI 应用普及。

  人工智能的三个方面算力(工业云计算和边缘计算)、数据(工业大数据)和算法(工业人工智能),在中国,基于人口规模和经济的发展程度,在数据和行业应用都在全球处于领先地位。但是 AI 算力资源却很稀缺而且昂贵,各行业应用需要越来越强劲的 AI 算力。算力价格贵、使用难和资源难获取是目前 AI 发展的三大瓶颈:

  Ø价格贵:现在人工智能整个训练的过程,譬如训练人脸识别、交通综合治理、自动驾驶,模型的训练成本非常高昂的。

  Ø使用难:缺乏一个统一的开发框架,无法适配从训练到推理,从公有云到私有云、边缘、终端的多种应用场景,开发、调优、部署的工作量巨大。

  Ø难获取:业界用于 AI 计算的 GPU 供货周期长,限量供应等,导致硬件资源不易获取。

  业界开发大规模 AI 训练芯片的主要厂家,比如英伟达、Google 和华为都推出了自己的 AI 训练芯片。英伟达 Tesla V100 GPU 最高提供 125 TeraFLOPS 深度学习性能,最大功耗为 300 瓦特。Google I/O 2018 开发者大会上,Google 推出了第三代 TPU 3.0,最高提供 90 TeraFLOPS 深度学习性能。华为在 2018 年 10 月的全联接大会上发布了针对 AI 训练场景的昇腾昇腾 910 AI 处理器。昇腾 910 AI 处理器,是当前计算密度最大的单芯片,适用于 AI 训练,可提供 256 TeraFLOPS 的算力,最大功耗为 310 瓦特。

2
业界主流 AI 训练芯片能力对比

  面向人工智能这个大的时代潮流,算力的稀缺和昂贵在一定程度上制约了当前的人工智能发展。华为认为,易获取、用得起、方便用的算力,是 AI 产业发展的关键。

  华为数十年长期聚焦在 ICT 基础设施研发和建设领域,深刻理解运营商和企业用户的使用场景,以“高起点”和“全栈全场景”入局 AI 领域,真正提供普惠的、强大的算力。

  华为昇腾系列 AI 处理器,采用了面向张量计算的达芬奇 3D Cube 架构,该架构面向 AI 的全新突破性设计,为昇腾 AI 处理器提供了超强的 AI 算力,使得芯片具有高算力、高能效、可扩展的优点。

  基于统一的达芬奇架构,华为可以支持 Ascend-Nano、Ascend-Tiny、Ascend-Lite、Ascend-Mini、Ascend-Max 等芯片规格,具备从几十毫瓦 IP 到几百瓦芯片的平滑扩展,天然覆盖了端、边、云的全场景部署的能力。“达芬奇架构可大可小,从 Nano 一直到 Max、从穿戴设备一直到云,可以全场景覆盖;我们推出 MindSpore 的目的就是协同达芬奇架构来面向全场景的。也就是说,在端、边缘、云都可以训练和推理,还可以进行相互协同,这是现在其他的计算框架所做不到的。” 华为轮值董事长徐直军表示。

  AI 训练的耗时跟模型的复杂度、数据集和硬件资源的配置是强相关的,在天文研究、自动驾驶训练、气象预测、石油勘探等大规模训练时,硬件资源尤其显得重要,人工智能的快速发展,得益于硬件和云计算技术的提升,更得益于各个行业数字化带来的大量的数据来训练模型。开发平台要求从原始数据到标注数据、训练数据、算法、模型、推理服务,实现千万级模型、数据集以及服务对象的全生命周期的管理。

  同时,无智能不成云,全栈发展走向纵深,AI 已经成为云的基础业务,实现云端训练和推理。在云上部署,支持在线和批量的推理,满足大规模并发的复杂场景需求。云、AI、IoT 协调使能蓝海市场,在智慧家庭、物联网和车联网等场景,构建云 +AI+IoT 的综合解决方案,开拓新的人工智能市场。

  华为的 AI 战略包括投资基础研究,在计算视觉、自然语言处理、决策推理等领域构筑数据高效(更少的数据需求) 、能耗高效(更低的算力和能耗),安全可信、自动自治的机器学习基础能力;打造全栈方案,面向云、边缘和端等全场景的、独立的以及协同的、全栈解决方案,提供充裕的、经济的算力资源,简单易用、高效率、全流程的 AI 平台。

  华为全球产业展望(GIV)报告显示,全球数据量将从 2018 年 32.5ZB 快速增长到 2025 年的 180ZB。对于企业,AI 算力需求每三个月增长一倍,AI 应用率到 2025 年将达 80%。不难发现,在算力领域已取得突破的华为,站在了一个巨大的时代风口之上。

你可能感兴趣的:(华为拿什么破解AI核心难题?)