• Anthropic 自设的陷阱
  • 发布于 2小时前
  • 4 热度
    0 评论
堆代码讯 周五下午,就在这次采访刚刚开始的时候,一条新闻快讯闪过我的电脑屏幕:特朗普政府正在与Anthropic切断关系。这家旧金山人工智能公司由达里奥·阿莫代伊创立于2021年。在阿莫代伊拒绝让Anthropic的技术用于对美国公民进行大规模监控,或用于无需人工输入即可选择并击杀目标的自主武装无人机后,国防部长皮特·赫格塞斯援引一项国家安全法,将该司列入黑名单,禁止其与五角大楼开展业务。

这一幕令人瞠目结舌。Anthropic将失去一份价值高达2亿美元的合同,并且在特朗普总统在“真实社交”上发帖,指示所有联邦机构“立即停止使用所有Anthropic技术”后,该公司还将被禁止与其他国防承包商合作。(Anthropic随后表示,将就此在法庭上挑战五角大楼。)

马克斯·泰格马克过去十年的大部分时间里一直在警告,构建更强大人工智能系统的竞赛,正超出世界对其进行有效治理的能力。这位麻省理工学院物理学教授于2014年创立了未来生命研究所,并协助组织了一封公开信——最终有超过33000人签署,包括埃隆·马斯克——呼吁暂停高级人工智能的开发。

他对Anthropic危机的看法毫不留情:该公司与其竞争对手一样,播下了自身困境的种子。泰格马克的论点并非始于五角大楼,而是始于多年前的一个决定——整个行业共同做出的、抵制具有约束力监管的选择。Anthropic、OpenAI、谷歌DeepMind等公司长期以来一直承诺会负责任地进行自我监管。Anthropic本周甚至放弃了其自身安全承诺的核心原则——即在其确信不会造成危害之前,绝不发布日益强大的人工智能系统。

泰格马克表示,如今在缺乏规则的情况下,这些公司并没有多少保护可言。以下是对这次采访的更多内容,为控制篇幅和清晰度做了编辑。您可以在未来一周收听TechCrunch的StrictlyVC Download播客,获取完整对话。

当你刚才看到Anthropic的这则新闻时,你的第一反应是什么?
通往地狱的道路是由善意铺成的。回想十年前,人们是如此兴奋,认为我们将利用人工智能治愈癌症、促进美国繁荣、使美国强大。而如今,我们看到美国政府因为这家公司不希望人工智能被用于对美国人进行国内大规模监控,也不希望制造可以完全自主——无需任何人工输入——决定谁该被杀的杀人机器人而对其感到愤怒,这真的很有意思。

Anthropic将其整个身份定位为一家安全至上的人工智能公司,然而它(至少从2024年起)一直在与国防和情报机构合作。你认为这有矛盾之处吗?
这是矛盾的。如果我可以稍微带点讽刺意味地说——是的,Anthropic非常擅长将自己营销为一切以安全为先。但如果你不看他们的声明,而是看实际事实,你会发现Anthropic、OpenAI、谷歌DeepMind和xAI都大谈特谈他们多么关心安全。他们中没有一个站出来支持像我们其他行业那样的、具有约束力的安全监管。而现在,这四家公司都违背了自己的承诺。先是谷歌——那个著名的口号“不作恶”。后来他们放弃了。然后他们又放弃了另一项更长期的承诺,该承诺基本上是说他们保证不利用人工智能作恶。他们放弃这个承诺是为了能销售用于监视和武器的人工智能。OpenAI刚刚从其使命陈述中删除了“安全”一词。xAI解散了整个安全团队。现在,Anthropic在本周早些时候,放弃了他们最重要的安全承诺——即在其确信不会造成危害之前,绝不发布强大的人工智能系统。

做出如此显著安全承诺的公司,最终怎么会落到这步田地?
所有这些公司,尤其是OpenAI和谷歌DeepMind,在某种程度上也包括Anthropic,一直在持续游说反对人工智能监管,声称“相信我们吧,我们会自我监管的”。而且他们的游说很成功。所以现在,美国对人工智能系统的监管比对待三明治还要宽松。你知道吗,如果你想开一家三明治店,卫生检查员在厨房里发现15只老鼠,他不会让你卖任何三明治,直到你把问题解决。但如果有人说,“别担心,我不卖三明治,我要卖的是面向11岁孩子的人工智能女友,这类产品过去曾与自杀事件有关联,然后我还要发布一种叫做超级智能的东西,它可能会推翻美国政府,但我对自己的产品感觉良好”——检查员却只能说,“好吧,继续,只要不卖三明治就行。”

有食品安全法规,却没有人工智能监管。
我觉得,所有这些公司都难辞其咎。因为如果他们当初把过去做出的那些关于将如何安全和表现良好的承诺集合起来,一起去政府那里说,“请把我们这些自愿承诺变成美国法律,让它也能约束我们那些最不守规矩的竞争对手”——那么现在的情况本会完全不同。我们目前处于一个完全的监管真空之中。我们也知道,当存在完全的公司豁免权时会发生什么:你会看到“反应停”事件,你会看到烟草公司向儿童推销香烟,你会看到石棉导致肺癌。所以,颇具讽刺意味的是,他们自己当初抵制制定法律来规定人工智能能做什么不能做什么,如今反过来困扰了他们自己。

目前没有法律禁止构建用于杀害美国公民的人工智能,所以政府可以突然提出这种要求。如果这些公司当初站出来说,“我们想要这样的法律”,他们现在就不会陷入这种困境。他们真的是搬起石头砸了自己的脚。

这些公司的反驳论点始终是关于与中国的竞赛——如果美国公司不做,北京也会做。这个论点站得住脚吗?
我们来分析一下。人工智能公司说客们最常见的论调——他们现在的资金和支持人数超过了化石燃料、制药和军工联合体的说客总和——就是每当有人提出任何形式的监管,他们就说,“但是中国”。我们来看看这个。中国正在彻底禁止人工智能伴侣。不仅仅是年龄限制——他们正在考虑禁止所有拟人化的人工智能。为什么?不是因为他们想取悦美国,而是因为他们觉得这会毁掉中国的年轻人,削弱中国。显然,这同样也在削弱美国的年轻人。

而当人们说我们必须竞相构建超级智能以战胜中国时——我们实际上并不知道如何控制超级智能,其默认结果可能是人类失去对地球的控制,将其拱手让给外来机器——你猜怎么着?中国共产党非常喜欢掌控。哪个心智正常的人会认为习近平会容忍某家中国人工智能公司构建出推翻中国政府的东西?绝不可能。同样地,如果第一家构建出超级智能的美国公司通过一场“政变”推翻了美国政府,那对美国政府的危害也显而易见。这是一个国家安全威胁。

这是个很有说服力的表述——将超级智能视为国家安全威胁,而非资产。你看到这个观点在华盛顿获得认同了吗?
我认为,如果国家安全领域的人士听取达里奥·阿莫代伊描述他的愿景——他做过一次著名的演讲,说我们很快就会在一个数据中心里拥有一个“天才之国”——他们可能会开始想:等等,达里奥刚才用了“国家”这个词?也许我应该把那个数据中心里的“天才之国”也列入我正在密切关注的黑名单里,因为这对美国政府来说听起来很有威胁性。而且我认为,很快,美国国家安全界就会有足够多的人意识到,不可控的超级智能是一种威胁,而不是工具。这完全类似于冷战时期。当时是与苏联争夺(经济和军事)主导地位的竞赛。我们美国人赢了那场竞赛,但没有参与第二场竞赛——即看谁能在对方超级大国的领土上留下最多的核弹坑。人们意识到那无异于自杀。没有赢家。同样的逻辑也适用于此。

这一切对更广泛的人工智能发展步伐意味着什么?你认为距离你所描述的系统还有多远?
六年前,我认识的几乎所有人工智能专家都预测,我们距离拥有能掌握人类级别语言和知识的人工智能还有几十年的时间——可能是2040年,也可能是2050年。他们都错了,因为我们现在已经拥有了这样的能力。我们看到人工智能在某些领域从高中水平迅速发展到大学水平,再到博士水平,再到大学教授水平。去年,人工智能在国际数学奥林匹克竞赛中赢得了金牌,这几乎是人类最难的任务之一。就在几个月前,我与约书亚·本吉奥、丹·亨德里克斯以及其他顶级人工智能研究人员合写了一篇论文,给出了通用人工智能的严格定义。根据这个定义,GPT-4已经达到了27%的水平。GPT-5达到了57%的水平。所以我们还没有完全实现,但从27%如此迅速地跃升至57%表明,实现它可能不需要太长时间。

昨天我在麻省理工学院给学生上课时,我告诉他们,即使还需要四年时间,这意味着当他们毕业时,可能再也找不到任何工作了。现在开始为此做准备绝对不算早。Anthropic现在被列入了黑名单。我很好奇接下来会发生什么——其他人工智能巨头是会与他们站在一起,说我们也不会这样做?还是会有人,比如xAI,举手说,Anthropic不想要那份合同,我们接?[编者注:采访结束几小时后,OpenAI宣布了自己与五角大楼的一项协议。]

昨晚,山姆·奥特曼出来表示,他与Anthropic站在一起,并且有同样的红线。我钦佩他敢于说出这话的勇气。在我们开始这次采访时,谷歌还没有任何表态。如果他们只是保持沉默,我认为这对他们公司来说会是非常尴尬的事情,他们的许多员工也会有同感。我们也没有听到xAI的任何消息。所以这将很有趣。基本上,现在这个时刻,每个人都必须亮出他们的真实立场。

有没有可能,这件事的结局实际上是好的?
有的,这也是为什么我奇怪地感到乐观。这里有一个非常明显的替代方案。如果我们开始像对待任何其他公司一样对待人工智能公司——放弃公司豁免权——那么他们在发布如此强大的技术之前,显然必须进行类似临床试验的步骤,并向独立专家证明他们知道如何控制它。那样我们就能迎来一个黄金时代,享受人工智能带来的所有好处,而没有生存危机的焦虑。这不是我们目前所走的道路。但本可以是的。
用户评论