Google:机器学习芯片让AI更快更高效

原文:Google Says Machine Learning Chips Make AI Faster and More Efficient
作者: Edd Gent
翻译:无阻我飞扬

摘要:作者介绍了Google专用机器学习芯片TPU,从TPU的诞生,TPU的作用,TPU与CPU和GPU的比较,以及Google推出TPU的目的等方面做了阐述,以下是译文。

Google:机器学习芯片让AI更快更高效_第1张图片

Google最近对外公布了其专用的机器学习芯片TPU的内部工作原理。在AI硬件至上的军备竞赛中打响了前哨战。

TPU是Tensor Processing Unit(Tensor处理单元)的缩写,这个芯片是为Google的开源机器学习库TensorFlow量身定做的,自2015年以来,Google的数据中心一直在使用该芯片。但在本月初,公司最终提供了该设备的性能数据。

公司表示,目前这一代的TPU设计用于推介—利用已经训练过的神经网络执行某种功能。比如通过Google Now识别语音命令。在执行这些任务上,公司表示TPU比同一时期的GPU和CPU快15到30倍,同样重要的是,TPU的功效也比同一时期GPU和CPU高30到80倍。

CPU,也就是中央处理器是自20世纪60年代以来大多数计算机的核心处理器。但是,CPU不太适合现代机器学习方法,特别是无法满足深度学习极高的计算需求。

在二十世纪末,研究人员发现,显卡更适合这些任务的高度并行性,而GPU,也就是图形处理单元成为实现神经网络最基本的技术。但是随着对机器学习使用的不断发展,Google希望为他们的需求量身打造一些东西,TPU应运而生。

“大约在六年前,当开始在我们产品的愈来愈多的地方使用昂贵的计算深度学习模型时,对TPU的需求就已经出现了。因为使用这些模型的计算费用让我们担忧,”Google首席工程师Norm Jouppi 在博客中写道。

“假设一个场景,人们每天使用谷歌语音搜索仅三分钟。在我们所使用的处理单元上为语音识别系统运行深度神经网络,那么Google数据中心的数量就会翻番! ”

Nvidia表示这种比较不完全公平,比较片面。谷歌将其TPU与服务器级英特尔Haswell CPU和Nvidia K80 GPU进行了比较,但从那时起已经有两代Nvidia GPU。英特尔一直保持沉默,但Haswell也已经有了三代。

公司在一篇博文中说:“随着NVIDIA的开普勒一代GPU在2009年问世,有助于唤醒全世界将GPU加速计算用于深度学习的可能性。它从未为该任务专门优化过”

为了证明这一点,他们有了自己新的基准,指出最新的P40 GPU的计算速度是之前的两倍。但重要的是,TPU浮出水面,这并不奇怪,Google已经准备好了,甚至已经在用新一代改进设计的TPU。

也就是说,它不会颠覆芯片市场。Google不会把TPU卖给竞争对手,而是完全专注于推介。Google仍然使用大量的Nvidia的GPU进行机器训练,这解释了公司为何对争论沉默以对。

Google也可能是世界上为数不多的公司之一,用金钱和愿景从头开始构建一个全新领域的产品。但它也是世界上最大的处理器采购商之一,它决定了满足自己需求的唯一方法是设计自己的芯片,这也为芯片制造商敲响了警钟。

事实上,这似乎是这个想法的一部分。网络世界的Steve Patterson写道: “Google发布这篇研究论文旨在提高机器学习界和芯片制造商之间的讨论水平,现在是实现商业解决方案,大规模运行推介的时候了”

这可能不会太远,分析师Karl Freund 在《福布斯》杂志上写道“鉴于市场的快速增长以及对高性能的渴望,我认为硅片厂商将不可避免地推出专为机器学习设计的芯片。”

Nvidia公司不太可能让其市场领先地位下滑,而在今年晚些时候,英特尔将发布第一个具有机器学习焦点Nervana技术的芯片,Nervana在去年的8月份被英特尔收购。甚至手机玩家已经开始行动了。

Arm的Dynamiq微架构允许客户将AI加速器直接构建到芯片中,从而将原生机器学习引入到智能手机等设备。而高通公司的项目Zeroth发布了一款软件开发工具包,可以在具有骁龙处理器的智能手机和无人机等设备上运行深度学习程序。

Google发布TPU可能只是一个温柔的推动,使业界朝着正确的方向前进。

图片来源:Shutterstock

你可能感兴趣的:(技术翻译)