谷歌的TPU是什么?

谷歌在IO大会上公布了他们用了一年多的TPU,但是没说这个是什么,也没有开源的意思。

那么我有几个问题要问

  1. TPU 是一种FPGA(可能是)
  2. TPU 需要驱动 (应该需要)
  3. TPU 类似的技术,对于现在的人工智能有什么帮助?

更新 2016-5-26

整理现在比较确定的信息。

2014年,也就是两年前的时候,谷歌内部就发现了,gpu做线上业务不太合适(具体什么原因?),但是同时也发现GPU很适合做模型的训练,所以他们自己开发了TPU,来支持线上业务。

也就是说TPU不是用来做模型训练的,而是作为一种支持线上业务的芯片。(低功耗的芯片)


用GPU做线上业务的问题

  1. 能耗问题
  2. 散热
  3. 体积

更新 2016-5-30

今天看到google brain团队发了一篇paper 《tensorflow: a system for large-scale machine learning》
在文中, 很明确的告诉我们,谷歌内部在使用gpu做模型训练,用TPU来部署训练好的模型。


你可能感兴趣的:(谷歌的TPU是什么?)