堆代码讯 据Axios报道,Anthropic必须在周五晚上之前做出抉择:要么允许美国军方无限制地使用其人工智能模型,要么承担相应后果。美国国防部长皮特·赫格塞斯在周二上午的会议上告知Anthropic首席执行官达里奥·阿莫迪,五角大楼计划采取两项措施之一:
要么将Anthropic列为“供应链风险”——这一标签通常用于外国对手;要么援引《国防生产法》,强制该公司根据军方需求定制一个模型版本。

《国防生产法》授权总统强制企业为国防需要优先安排或扩大生产。最近一次动用该法是在新冠疫情期间,当时通用汽车和3M等公司被要求分别转产呼吸机和口罩。Anthropic长期以来一直明确表示,不希望其技术被用于对美国民众进行大规模监控或开发完全自主的武器,并且在这些原则问题上拒绝让步。五角大楼官员则认为,军方对技术的使用应受美国法律和宪法限制的约束,而不应由私营承包商的 usage 政策来决定。
在涉及人工智能护栏的争议中动用《国防生产法》,将标志着该法在现代的适用范围显著扩大。美国创新基金会高级研究员、曾在特朗普白宫担任人工智能高级政策顾问的迪恩·鲍尔表示,这也反映出近年来行政部门不稳定性加剧这一更广泛趋势的延伸。
鲍尔说:“这基本上就等于政府在说,‘如果你们在政治上与我们意见不合,我们就要让你们破产’”。这场争议发生在意识形态摩擦的背景下,政府内部的一些人——包括人工智能事务负责人戴维·萨克斯——公开批评Anthropic的安全政策过于“觉醒”。鲍尔说
:“任何理性、负责任的投资者或企业管理者看到这种情况,都会认为美国不再是一个稳定的经商之地。这是在动摇美国作为全球重要商业枢纽的核心基础。我们过去一直拥有稳定且可预测的法律体系。”
这是一场危险的“懦夫博弈”,而Anthropic未必会率先让步。据路透社报道,Anthropic并不打算放宽其使用限制。据多家媒体报道,Anthropic是唯一能够接触国防部机密系统的前沿人工智能实验室。国防部目前没有可行的备选方案——尽管据称五角大楼已达成协议,将在机密系统中使用xAI的Grok模型。鲍尔认为,这种缺乏冗余性的情况可能解释了五角大楼为何采取如此强硬的姿态。
他对TechCrunch表示:“如果Anthropic明天取消合同,对国防部来说将是一个严重问题。”他指出,该机构似乎未能满足已故拜登政府末期一份国家安全备忘录的要求,该备忘录指示联邦机构避免依赖单一可处理机密任务的前沿人工智能系统。他继续说道:“国防部没有后备方案。这是单一供应商的局面。他们无法在一夜之间解决这个问题。”
TechCrunch已联系Anthropic和国防部寻求置评。