Google为什么发展TPU而不是自己造超级GPU

Google机器多,服务器多,训练从来都不是Google担心的问题。我知道对每个个体研究者来说,GPU都是笔大开销和主要预算方向,但是对Google不是问题。

Google随着Tensorflow不断地在发布他们训练好的,在某个领域领先的模型,为啥?因为从Google的角度,要提供的不是AI训练云,而是AI服务云。服务你们这些几十万个研究者重要呢?还是服务潜在的所有的都可能需要AI服务的公司重要呢?这不是一个很难的选择。

所以,Google操心的不是训练,Google的用户一般不需要训练,顶了天是Finetune一次两次,主要需求是服务,这就是为啥TPU对Google是个大战略的原因啊。

科研者有了更好的模型,没关系,Google可以参考,可以自行实现,可以购买吧,然后再租给自己的AI服务云的用户即可。