• OpenAI发博文披露与五角大楼协议的更多细节
  • 发布于 1小时前
  • 4 热度
    0 评论

堆代码讯 山姆·奥特曼自己都承认,OpenAI与美国国防部的这份协议有点"确实签得仓促",而且"从表面看确实不太好看"。上周五,Anthropic与五角大楼的谈判破裂后,特朗普总统指示联邦机构在六个月的过渡期后停止使用Anthropic的技术,国防部长赫格塞斯则宣布将这家AI公司列为供应链风险企业。


紧接着,OpenAI火速宣布达成协议,将其模型部署到机密环境。考虑到Anthropic曾明确画下红线——禁止将其技术用于全自动武器或大规模国内监控——奥特曼也表示OpenAI有同样的底线,这就带来了一些绕不开的问题:OpenAI的安全承诺到底靠不靠谱?为什么它签得成,Anthropic却签不成?于是,在OpenAI高管们纷纷在社交媒体上为协议辩护的同时,公司也发了一篇博文,详细说明了他们的做法。


博文明确指出了OpenAI模型不能触碰的三个领域:大规模国内监控、自主武器系统,以及"高风险自动化决策(比如‘社会信用’这类系统)"。公司表示,不同于那些"削弱或移除安全护栏、在国家安全部署中主要靠使用政策来兜底"的AI公司,OpenAI的这份协议是通过"更广泛、多层次的方式"来守住红线的。

"我们对自身的安全体系有完全的决定权,采用云部署方式,有经过审查的OpenAI人员参与其中,还有强有力的合同保障,"博文中写道,"这些都是在美国法律已有强大保护之外的额外措施"。公司还补充道:"我们不清楚Anthropic为什么没能谈成这个协议,也希望他们和其他实验室也能考虑类似的合作方式。"

博文发出后,Techdirt的迈克·马斯尼克直言,这份协议"确实允许国内监控",因为它规定数据收集需遵循第12333号行政令等多部法律。他形容这项行政令是"NSA(美国国家安全局)通过接入美国境外线路来截取通信,从而掩盖其国内监控行为的手段——哪怕这些通信涉及美国人信息。"

OpenAI负责国家安全合作的卡特里娜·穆里根则在领英上回应称,外界对合同条款的很多讨论,都假设"保护美国人民不被AI用于大规模监控和自主武器的唯一屏障,就是一份与(前)战争部签的合同里那一条使用政策"。"事情根本不是这么运作的,"穆里根说,"部署架构比合同条款更重要……我们只通过云API部署,这就能确保模型不会直接被集成到武器系统、传感器或其他作战硬件中。"

奥特曼也在X上回答了相关问题,他承认协议签得仓促,也让OpenAI承受了不小的舆论反弹(以至于上周六,Anthropic的Claude一度在苹果App Store下载榜上超过了OpenAI的ChatGPT)。那为什么还要签?

"我们真的很想缓和局势,也觉得这个协议本身是好的,"奥特曼说。"如果我们是对的,这份协议真能让(前)战争部与行业之间降温,那我们就是有远见的公司,是顶着压力帮行业扛事。如果不是,那我们只能继续被说成……仓促、不谨慎。"
用户评论