• 马斯克开源Grok-1大模型背后的原因
  • 发布于 1周前
  • 66 热度
    0 评论
千呼万唤始出来。为了兑现牛逼,马斯克最近下了血本:Grok-1宣布开源。据官方信息,这是一个参数高达3140亿的混合专家模型,是目前所有开源模型中规模最大的。甚至,Grok-1还采用Apache 2.0许可证,这意味着它对商业使用是友好的。老马直言,他就是要证明他的开放性和透明度,就是要嘲讽ClosedAI。

大家可能都觉得有些腻了,马斯克最近整活的频率也太高了。对开源这回事,为什么就必须要死咬着不放?

一.AI比核弹更危险
1914年,韦尔斯在《世界被解放》中对核武器做出美好幻想:“原子弹在他们笨拙的手中爆炸之前……在最后一场战役开始前,人们都知道,一个人可以用手提包携带足以摧毁半个城市的破坏能量。”

他认为,核弹的威力是如此之大,以至于人们一定会想方设法创建一个乌托邦政府,以防止武器被滥用。这跟动漫《火影忍者》里佩恩的理念非常类似,制作能瞬间消灭一个城市的超级武器,让所有人都生活在恐惧中,世界自然就和(核)平了。后来的历史告诉我们,这种想法是有些天真的,没有人愿意被别人统治。

但也不是完全没有道理。当时有不少人开始担心,当第一个国家拥有原子弹时,会发生什么?它将在战争中势不可挡,并一定会用铁腕手段统治世界。1945年,两颗原子弹前所未有的杀伤力,瞬间击溃日本“一亿玉碎”的计划,席卷世界的大战很快就结束。但此时,和平并不算到来。美国是唯一的有核国家,谁知道下一个核打击对象是不是自己?生死取决于某一方的态度,不受制约,就谈不上和平。

直到这种力量,不再是被某一家垄断。冷战期间,美苏双方已经到了你死我生的局面,之所有没有爆发大规模战争,就是因为威慑性武器不再是谁的独有。这种虚假的和平,一直持续到今天。如果不是各方互相制衡,大家是很难做到谈判桌前平静交谈的。虚假的和平,也是和平,总比无限的战争好一万倍。

AI的性质,与核弹有些类似。之前我们计算过AGI所需要的资源量,先不论是否正确,有一点是确定的:AGI一定能实现,只不过时间长短未知。既然如此,我们在担心自己的工作被抢走之前,其实应该先思考一个问题:谁控制着AI。

现在,我们仿佛又回到原子弹出现前的那个时代。当第一家企业拥有真正AGI时,会发生什么?如果只把AGI当作商业武器,毫无疑问,它将横扫还没有AGI的所有对手,垄断全行业,实现一波财富大爆发。

直到,它失去垄断地位,市场才重新恢复竞争局面。就像过去半个多世纪,核弹对这个世界造成的局面一样。但这只是最好的情况。

马斯克不止一次说:“在我看来,人工智能比核弹更危险。”

在我看来,他所指的危险,并不只是说破坏力,而是存在方式。核弹威力再大,终究是死物。如果没有人为去引爆,它就是个铁疙瘩。但AGI,谁都无法预料它是否会诞生基本的生物本能。如果它是“活”的,即便不会伤害自己的造物主,也绝对会想方设法消灭可能威胁到自己的“同类”。

不论是人还是其他任何动物,都会为了食物、土地等资源,残酷杀死竞争对手。这是生物界的共性,是无法避免的本能。对人工智能而言,最宝贵的资源就是算力和能源,这相当于它的食物。AGI想要更进一步进化成超级AI,所需要消耗的资源呈指数增长。所以,哪怕它只领先一分钟实现AGI,都很可能杀死其他还在襁褓中的同类们,防止它们将来抢食。一旦这种事情发生,最先出头的那家企业会一直垄断下去,这不论对行业还是整个社会,都是不好的。

我们需要充分的竞争,不能让某一家企业遥遥领先下去。

二.拒绝赛博朋克
在游戏《赛博朋克2077》中,超级科技巨头荒坂集团掌控着大部分国家的政府及经济命脉,渗透进所有人生活的每个角落。它就像扎根在夜之城的参天巨树,敲骨吸髓地汲取普通人为数不多的养分。这个时代,“上等人”享尽科技霸权的红利,在摩天大楼和飞行汽车里纸醉金迷,双脚几乎不沾地;普通人则只能世世代代在充满辐射、垃圾和杀戮的拥挤街道,挣扎求生。

朱门酒肉臭,路有冻死骨。科技飞跃发展,底层人却苦不聊生,这就是技术垄断必然造成的病态社会缩影。这不仅仅只是警示。假如AGI长期垄断在某一家手中,这可能就是未来的剧本。

在古代,武器=权利;在近现代,金钱=权利;在未来,科技=权利。

你根本无法预料某些人掌握绝对权利后会做什么。即便他是所谓的“仁君”,那下一任呢?无论什么时候,权利都需要制约。我有同归于尽、掀桌子的力量,凭什么被你统治?开源AI,客观来说,就是这种效果。就目前而言,OpenAI在大模型这条赛道上的先发优势,是毋庸置疑的。这是个堆数据、堆资源、堆时间的活,如果搞闭源,谁都不可能追上GPT。

别说什么超越GPT-3.5多少、只比GPT-4差多少,只要差一点,等到OpenAI实现AGI的那一刻,所有后发者的命运都是一样的。既然单靠自己不行,就只能借助外力。既然先发优势不可更改,那就学曾经安卓那一套,搞开源系统就是了。开源意味着模型的源代码、所有用于训练模型权重和参数都是可公开访问、可用、可修改的,并且允许转载。

简单来说,就是邀请全世界开发者给自己打工,以此来挑战已有的闭源生态。

这样做,至少有六点好处:
1.降低进入门槛。让更多人参与,为AI发展提供动力。
2.加速研究进展。开发者可以在开源代码和数据的基础上,直接研究和创新。
3.促进产业应用普及。开源的算法和模型,可以被更多企业应用和商业化,推动AI应用落地。
4.帮助确保公平和透明。公开开源代码可以让社会对算法过程进行审查,确保其公平性和透明度。
5.节省计算和人力成本。可以在已有开源成果上继续创新,而非重复基础工作,节约大量计算和人力成本。
6.增强可重复性和可扩展性。其他人可以复现开源项目的实验,并在此基础上进行扩展,推动科技深入发展。

以Meta的开源大模型Llama2为例,短短几个月,通过Hugging Face下载的基于Llama的模型超过3000万次,开源AI社区上发布了超过7000个Llama衍生模型。

Meta在技术和资金上确实拼不过微软和OpenAI。但就像当年的安卓一样,群众的力量是恐怖的。不论是Meta的Llama,还是谷歌的Gemma,都能用开源的方式,像曾经的安卓那样在智能手机时代分一杯羹。包括马斯克自己,乃至未来更多的开源大模型,都是这种玩法。这是商业的角度。

再从伦理角度看,早在2015年,马斯克与山姆·奥特曼就讨论了这个问题:由大公司控制的少量AI系统更安全,还是大量独立系统更安全?当时两人一致更认同后者。逻辑就是,只要有大量彼此竞争的AI相互制衡,就算少部分AI“变质”了,产生自由意识脱离掌控,其他大量的独立系统也会联合剿灭它。这就是马斯克心中AI最安全的发展路径:防止人类滥用AI的最佳防火墙,就是让尽可能多的人都拥有AI。

简单来说,就是提高容错率。总之,开源不仅能促进技术更快发展,还能有效避免技术被某一家巨头垄断,更能让发展AI这条路线更加安全。

但它并不是完全没有坏处。至少对外,关于为什么要闭源,OpenAI是这么解释的:防止AI被滥用。就像枪支一样,如果按照马斯克的理念,人人手里都有枪,犯罪事件是不是就更多了?要是把枪支,换成比核弹更危险的原子弹,是不是更危险?