如何评价 Google 发布的 Tensor Processing Unit?

tinyfool 发布于 2016年05月20日 | 更新于 2016年05月20日
无人欣赏。

之前Google推Tensorflow的时候,有很多异议的声音。比如我们可以看到最广泛使用的一个benchmark数据,TF的性能几乎在每个项目都是排在几大流行的库后面的。

Benchmark TensorFlow

一开始也有人说Google为啥开源一个无法分布计算的机器学习库,当然后来Google更新了Tensorflow把多机的代码放了出来了。当时为Google的辩护的声音就是说,Google服务器多,所以单机性能不重要。

我也一直在疑惑这些问题,因为行业里面都在用N卡,不可能说,别人用N卡跑Tensorflow性能不好,Google自己跑性能就好了。这没道理。除非刻意的把TF的代码分成内部的和外部的,这又和开源的初衷冲突了吧。

然后,Google宣布把一个一个项目转移到Tensorflow上去,甚至最近刚刚发布了一个号称全世界最先进的英文分析工具出来,也是基于Tensorflow的。

到了今天一切都可以解释了。根据Google的blog,他们一年前就开始部署TPU了,也就是在Google内部的Tensorflow都跑在TPU上。而Tensorflow和TPU的名字就一眼可以看出来,Tensorflow是为TPU专门设计的,或者说TPU是为Tensorflow专门设计的。

而Google一直只是排对内测的机器学习云,应该也是跑在TPU上面的。我相信Google在没有在性能/价格,性能/能耗比上做到比其它家有非常大的优势,它是不会搞机器学习云的。

大家都知道,Mapredue的思想来自于Jeff Dean的设计。大数据的业界一直都在享受快10年前Google架构带来的变革。现在该死的Jeff Dean又要改变世界了,看样子。好可怕。而且这次,这货从硬件/软件/云,三个维度一起下手,坏死了。

我现在唯一担心的就是这该死的芯片,他们只用于自己的云,而不卖。那祖国人民就哭死了,一块墙,搞死中国科研啊。

共1条回复
xiaotie 回复于 2016年05月20日

这个就类似于比特币挖矿,最开始用显卡干,后来都上特制的芯片。国内也有几家在做这个,搞比特币矿机的也琢磨着要进入这一块。不过,跟比特币不同的一点,深度学习不是有算力就够了,数据是个大问题。

登录 或者 注册
相关帖子