闽公网安备 35020302035485号
堆代码讯 本周,Anthropic 做出了一个令市场关注的特殊决定:没有向公众全面开放其最新模型 Mythos,而是仅将其分享给了一批运营关键在线基础设施的大型企业和组织,其中涵盖了亚马逊云服务、摩根大通这类掌握核心互联网资源的巨头。而 Anthropic 给出的理由是,这个模型在发现软件安全漏洞方面的能力过强,担心其被恶意行为者利用,威胁全球互联网的安全。
但这一理由,却引发了业内的疑问。AI 网络安全实验室 Irregular 的 CEO Dan Lahav,在今年三月 Mythos 发布前就向 TechCrunch 提出了自己的疑问:虽然 AI 工具发现漏洞的能力本身很重要,但一个漏洞能不能真正被攻击者利用,其实取决于很多因素,包括能不能和其他漏洞组合成攻击链。“我一直想问,他们发现的这些漏洞,是不是真的能以有意义的方式被利用?”
更关键的是,有初创公司已经证明,Anthropic 口中能力过强的 Mythos,其实并没有那么不可替代。AI 网络安全初创公司 Aisle 表示,他们仅仅使用更小的、开放权重的模型,就复现了 Anthropic 声称的 Mythos 所实现的许多功能。Aisle 的团队认为,这说明网络安全领域并不存在什么终极的深度学习模型,能力的表现完全取决于具体的任务,Mythos 也并非什么不可替代的安全领域 “杀器”。
既然 Mythos 的能力并没有那么 “危险”,那 Anthropic 为什么要限制它的公开?业内的分析指出,这背后,其实是前沿实验室对模型蒸馏技术的担忧,以及对自身商业模式的保护。软件工程师、初创公司 exe.dev 的 CEO David Crawshaw,就在社交媒体上点破了这一点:这种选择性的发布,其实是为 “顶级模型仅向企业开放” 提供了营销掩护,这样一来,小型实验室就无法再对这些顶级模型进行蒸馏 —— 也就是利用前沿模型,廉价训练出可以复制其能力的新模型。
“等到你我都能使用 Mythos 的时候,又会有新的顶级版本出现,且仅供企业使用。”Crawshaw 表示,这种跑步机式的更新换代,就能把那些做蒸馏的公司 relegated 到二流的地位,从而保证企业资金的持续流入,而企业客户,正是当前 AI 行业最大的收入来源。这一分析,正好与当前 AI 行业的现状完全吻合:当前的 AI 生态,正在分裂成两个阵营,一边是 Anthropic、OpenAI 这类打造顶级大模型的前沿实验室,另一边则是 Aisle 这类公司,他们依赖开源模型,而很多开源模型,正是通过蒸馏前沿模型得到的,以此来获得成本优势。
而今年,这些前沿实验室,已经对蒸馏技术采取了越来越强硬的立场:Anthropic 公开披露了其所称的中国公司试图复制其模型的行为;而彭博社的报道也显示,Anthropic、谷歌和 OpenAI 这三家领先的实验室,已经联手起来,识别并阻止那些蒸馏他们模型的公司。对这些前沿实验室来说,蒸馏技术是致命的威胁:它会彻底消除他们投入巨额资本打造的模型优势,让他们的商业模式失去壁垒。因此,阻止蒸馏本身,就是一项值得全力投入的事情,而这种仅向大企业开放新模型的策略,正好可以帮他们做到这一点,同时还能让自己的企业级产品实现差异化,保住高利润的企业客户。
当然,谨慎地推广这种能力强大的安全模型,本身确实是一种负责任的做法,能够保护互联网的整体安全。但无论如何,Anthropic 的这一做法,显然是一箭双雕:它既可以用 “保护网络安全” 的理由,为新模型的限制发布做背书,又能借此阻止别人蒸馏自己的顶级模型,保护自己的商业模式与利润。