在谷歌把Google Brain和DeepMind两个机构合并成为Google DeepMind以后,新动作马上就来了。这一次是大杀器。根据华盛顿邮报的报道,谷歌AI的大佬,Jeff Dean,对内部员工宣布,谷歌以后将推迟向外界分享自己的工作成果。这是什么意思呢?简单一点来说,谷歌这些年以来,发表了很多AI的研究论文,这些论文还有其他的一些开源项目,成为了AI领域指明方向的明灯。
比如说现在大火的GPT里面的T,就是2017年谷歌发表的论文Transformer。OpenAI虽然说一直都在坚持自己的generative的思想,但是它们却受限于深度学习技术的问题,当时流行的RNN,对大规模支持并行计算并不友好,所以OpenAI没办法把模型做大。
而谷歌提出来的Transformer却很好解决了这个问题,于是OpenAI就用了Transformer的架构,而且用的还是最简单的Decoder的架构,然后就可以大规模并行训练,然后,就有了惊艳的ChatGPT。
可以这样说吧,这些年里面AI领域做出的突破性贡献,很多都来自于谷歌的无私分享。谷歌在AI方面显然是很伟大的。现在为什么谷歌决定停止分享呢?我觉得有两个方面的原因。一方面,谷歌受到ChatGPT的压力太大了。微软的CEO忍不住的说,以后搜索成本上升10倍,微软的必应反正市场占有率低耗得起,而谷歌耗不起。
谷歌实际上AI从研究到落地的整条链路确实是落伍了,整个公司受到OpenAI和微软的结合,压力也很大。
另外一个原因,就要怪OpenAI自己了。OpenAI一方面享受了谷歌发表论文的便利,一方面自己的研究从GPT3.5开始就变得不Open起来了,GTP-4更是一点也不提自己到底是怎么训练的。
这种别人的成果可以白嫖,但是自己的成果不分享的做法,当然也寒了谷歌的心。踩着谷歌的研究成果更进一步,回头却说要干翻谷歌。如果我是谷歌的话,我也不敢再无私分享我的新研究成果了。
只能说OpenAI做事情太不厚道了。
当然,谷歌被白嫖的事情,也不只有这一件。之前谷歌大数据三篇论文发表以后,开源社区如火如荼的Hadoop生态圈,也是一种白嫖谷歌。只不过很长一段时间里,谷歌觉得自己的基础架构实现比Hadoop好太多了,非常有优越感。
然后,一件意想不到的事情发生了。谷歌开始做云服务。于是,谷歌就把自己的BigTable做成了云服务。但是万万没想到的是,谷歌的BigTable明明比开源的HBase好很多,就是没人用。
为什么没人用呢?因为大家都习惯了HBase的API。所以谷歌最后不得不做了一个决定,开发出一套兼容HBase的API。问题是这套API可能还没谷歌自己的API牛逼有效率,但是反正你不兼容HBase我就不用你。
我都可以想象,当年开发这套API的程序员,一定是一边吃屎一样的感觉,一边开发兼容HBase的API。
你想,要是谷歌不分享BigTable这篇论文的话,HBase问世起码不知道还要等多久,然后谷歌的云服务大概率可以很容易抢占市场,不用一边吃屎一边写兼容HBase的API了。所以曾经谷歌也表达过,三架马车的论文的发布,谷歌只是赚到了名声,一点实际的好处都没赚到。
没想到谷歌在AI方面又一次做了活雷锋,如果Transformer的论文不发表的话,OpenAI的人根本不知道有一个可以支持大规模并行计算的新的深度学习的网络架构,那也许也就没GPT什么事情了,钱早就烧完破产了。
现在倒好了,一边资敌,一边敌人还不开放自己的研究成果,敌人的合作伙伴还叫嚣着说谷歌的搜索不行了,谷歌不行了。连带投资人都觉得谷歌真的不行了,股票也很难看。
那我是谷歌领导人,我也会做出同样的决定啊,不共享我自己最牛逼的研究成果,不能资敌了。