• 中国等国需要谨防AI领域的美国“核霸权”
  • 发布于 2个月前
  • 475 热度
    0 评论
  • APAC
  • 18 粉丝 33 篇博客
  •   
这两天美国国会举行了关于人工智能的听证,OpenAI的CEO Sam Altman出席了这场听证。从后续流出来的近2万5千字的听证会文字稿来看,这场听证会,对全世界看起来不是什么好事情。

听证会里面Sam Altman有一些观点是非常可怕的。Sam Altman不否认,AI技术发展到今天,实际上已经很危险。处理不好,AI对人类的影响,和核武器没什么差别。关于这一点,马斯克等大佬其实也有同样的顾虑。但是不管怎么样,大佬们还是不顾一切发展AI技术。

Sam Altman对AI技术可能带来的危害的解决办法是什么呢?监管AI。这话听起来好像没什么问题,但是怎么监管就很有意思了。监管AI,首先,美国政府应该成立一个新的机构。毕竟目前已经有的机构,似乎对AI的监管不够了。然后,为了防止AI技术的破坏力,这个机构要限制大家对AI技术的研究。

这话听起来也有道理,要是每个人都可以研究枪炮,研究核武器,制造核武器的话,好像这个社会确实是问题。怎么限制呢?就是让这个机构给大模型发证。只有通过了这个机构的严格检查和批准的人,才可以合理合法的研发大模型。至于那些其他人,则干脆就通通禁止大模型的研发。当然,如果模型不够大,能力不够强,那么作为玩具级别的大模型,科研人员和学术机构也是可以豁免的。

这种想法就很有问题了。禁止大部分人去研发大模型,大模型又不是政府掌握的,只是被少数的大科技公司掌握。那OpenAI作为有先发优势的大模型提供商,是不是可以通过政治法律手段,永久的享受大模型的先发优势呢?

成为规则制定者,设置行业准入,从而把竞争对手们都排除在外。这到底是因为AI技术太危险,所以必须严格禁止大部分人做AI相关的研发和商业活动,还是排挤竞争对手,让自己的大模型长期享受红利?这事情恐怕也很难说得清楚了。

Sam Altman的另外一个建议是成立一个类似国际原子能组织这样的由美国主导的国际组织,参考世界各国管制核武器的做法,管制全世界的AI技术和大模型。

这一条就更厉害了,毕竟我们知道国际原子能机构最大的应用就是让非联合国五常的国家不能拥有核武器,不然的话就要被制裁。这样来说就是说以后美帝要确立对全世界的AI霸权,其他国家发展AI技术都不可以,不然就要被制裁了。

当然,目前的情况来说,全世界有人才有算力有数据能够发展AI大模型的国家本来就不多,就算联合国五常里面,除了美国和中国,英国法国俄罗斯是不是有这个能力都不好说。

俄罗斯应该不缺人才,但是有没有足够的数据和算力,真的不好说。英国法国的话,估计在数据方面就会遇到挑战了。至于中国,虽然说各方面都不缺,但是美国已经开始禁高端芯片了,英伟达的A100和H100都不向中国发货了。

所以Sam Altman在国会的发言,实际上就是建议美国要在全世界建立起AI霸权,禁止绝大多数的人和机构从事高端AI的研发技术,AI的研发只能被极少数集团垄断。

你说这个发言是不是很可怕。AI技术本身是不是有像原子弹这样可怕的影响,我觉得还是值得讨论的问题。但是把AI技术上升到这个层面,并且要通过准入制度限制机构研发AI技术,要成立类似国际原子能机构这样的以美国为首的国际组织,管理全世界的AI发展,那这个事情就很可怕了。
用户评论