谷歌公布了TPU(优化了TensorFlow的ASIC)的更多细节

继Google CEO Sundar Pichai早些在Google I/O大会上公布了TPU(Tensor Processing Unit, 张量处理单元)的研发之后,最近Google的硬件工程师Norm Jouppi又公布了TPU的若干细节。

TPU为了更好的用TensorFlow(TF)来实现机器学习功能而特意优化了ASIC,降低了计算精度以减少完成每个操作所需要的晶体管数量。目前为止Google还没有提供性能测试数据,但Google声称这些优化有助于提高芯片每秒钟处理的操作数量。

Google表示这个项目几年前就已经开始了,而且它的技术领先了当前业界水平整整七年,但Google并没有向社区提供可供分析的数据。Jouppi说只需22天就可以完成这种芯片从原型测试到数据中心部署的完整流程。这也是Google将研究成果应用于实际生活的又一个例子。

大家关心的问题集中于TPU与大家熟悉的东西之间有何异同,比如Nvidia的Telsla P100等芯片,或者PaaS提供者Nervana提供的机器学习服务等。Google公布的信息中表示TPU也许可以与Nvidia四月份发布的Tesla P100芯片相类比。

最近有消息说Google在自行研发和生产芯片,并分析了对Intel等业界龙头公司的潜在影响。Jouppi提到Google实际上想要引领的是机器学习领域,并且要让客户享受到这些变革带来的好处,但他这一次没有给出更细节的计划及内容。

在原贴的评论中有人提到TPU有可能会取代Nvidia的P100和TX1,以及IBM的TrueNorth,但没有给出详细的评测数据和对比。Google已经将TPU用于许多内部项目,如机器学习系统RankBrain、Google街景、以及因为在二月份的围棋比赛中击败韩国大师李世石而声名鹊起的AlphaGo等。但Google没有给出将TPU应用于外部项目的计划。

查看英文原文:Google Details New TensorFlow Optimized ASIC

感谢张龙对本文的审校。

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至[email protected]。也欢迎大家通过新浪微博(@InfoQ,@丁晓昀),微信(微信号:InfoQChina)关注我们。

你可能感兴趣的:(谷歌公布了TPU(优化了TensorFlow的ASIC)的更多细节)