之前Google推Tensorflow的时候,有很多异议的声音。比如我们可以看到最广泛使用的一个benchmark数据,TF的性能几乎在每个项目都是排在几大流行的库后面的。
一开始也有人说Google为啥开源一个无法分布计算的机器学习库,当然后来Google更新了Tensorflow把多机的代码放了出来了。当时为Google的辩护的声音就是说,Google服务器多,所以单机性能不重要。
我也一直在疑惑这些问题,因为行业里面都在用N卡,不可能说,别人用N卡跑Tensorflow性能不好,Google自己跑性能就好了。这没道理。除非刻意的把TF的代码分成内部的和外部的,这又和开源的初衷冲突了吧。
然后,Google宣布把一个一个项目转移到Tensorflow上去,甚至最近刚刚发布了一个号称全世界最先进的英文分析工具出来,也是基于Tensorflow的。
到了今天一切都可以解释了。根据Google的blog,他们一年前就开始部署TPU了,也就是在Google内部的Tensorflow都跑在TPU上。而Tensorflow和TPU的名字就一眼可以看出来,Tensorflow是为TPU专门设计的,或者说TPU是为Tensorflow专门设计的。
而Google一直只是排对内测的机器学习云,应该也是跑在TPU上面的。我相信Google在没有在性能/价格,性能/能耗比上做到比其它家有非常大的优势,它是不会搞机器学习云的。
大家都知道,Mapredue的思想来自于Jeff Dean的设计。大数据的业界一直都在享受快10年前Google架构带来的变革。现在该死的Jeff Dean又要改变世界了,看样子。好可怕。而且这次,这货从硬件/软件/云,三个维度一起下手,坏死了。
我现在唯一担心的就是这该死的芯片,他们只用于自己的云,而不卖。那祖国人民就哭死了,一块墙,搞死中国科研啊。