• 未经授权的组织已获取Anthropic专属网络工具Mythos的访问权限
  • 发布于 1小时前
  • 7 热度
    0 评论
堆代码讯 近日,AI 初创公司 Anthropic 的一款备受瞩目的前沿网络安全 AI 工具,意外遭遇了非授权访问事件。据彭博社等多家媒体报道,一个身份未公开的私人在线论坛组织,已经通过第三方供应商渠道,成功获取了该公司专为企业安全打造的 Claude Mythos 预览版的访问权限,这一事件也让这款被 Anthropic 视为 “能力过强不敢公开发布” 的模型,陷入了管控风险的争议之中。

作为 Anthropic 迄今为止能力最强的前沿 AI 模型之一,Claude Mythos 从诞生之初就带着特殊的定位。这款模型拥有远超普通安全工具的漏洞挖掘能力,据官方介绍,它能够自主发现并分析软件系统中的安全漏洞,甚至已经找出了数千个此前未被发现的零日漏洞,覆盖了所有主流操作系统与浏览器,其中不少漏洞甚至躲过了数十年的人工审核与数百万次自动化安全测试。


正是因为忌惮这款工具的强大能力可能被恶意滥用,Anthropic 并未选择将其向公众开放,而是推出了名为 “玻璃翼计划”(Project Glasswing)的有限发布举措。该计划以拥有透明翅膀的玻璃翼蝴蝶命名,寓意安全领域的透明协作,旨在将 Mythos 的能力开放给经过严格审核的合作伙伴,仅用于防御性的安全工作 —— 提前扫描并修复关键软件的漏洞,在黑客利用这些漏洞发起攻击之前完成修补。


目前,该计划已经吸纳了包括亚马逊、苹果、微软、谷歌、思科、摩根大通在内的 12 家核心创始企业,以及超过 40 家额外的合作机构,甚至美国国家安全局(NSA)等情报机构也在内部使用该模型进行系统漏洞扫描,希望借助 AI 的能力提前排查安全风险。Anthropic 曾明确警告,Mythos 如果落入恶意行为者手中,极有可能被武器化,反过来成为攻击企业系统的黑客工具,这也是公司严格限制其访问权限的核心原因。


非授权组织的 “突破”

然而,这套严格的管控机制,还是被一个非授权组织突破了。据彭博社报道,就在 Mythos 通过玻璃翼计划向合作伙伴开放的当天,这个来自私人在线论坛的组织就成功获取了访问权限。该组织的成员隶属于一个专门追踪未发布 AI 模型信息的 Discord 频道,他们通过多种策略绕过了访问限制:一方面,他们利用了一名为 Anthropic 工作的第三方承包商所拥有的合法访问权限;另一方面,基于对 Anthropic 其他模型部署格式的了解,他们对 Mythos 模型的在线部署地址做出了有根据的猜测,最终成功接入了该系统。


在获取访问权限后,该组织已经在一段时间内定期使用 Mythos 工具,并且向彭博社提供了使用截图与软件实时演示,以此证明他们确实已经掌握了该工具的访问权。不过,该组织的相关人士向媒体表示,他们的目的仅仅是 “摆弄新模型”,出于对前沿 AI 技术的好奇进行探索,并没有打算利用该工具制造破坏或发起网络攻击。


官方回应与行业隐忧

针对这一事件,Anthropic 的发言人已经向 TechCrunch 确认,公司正在调查相关报告,确认此次非授权访问是通过某一个第三方供应商的环境发生的。不过该公司同时表示,截至目前,尚未发现任何证据表明这一非授权活动对 Anthropic 自身的系统造成了任何影响。


这一事件的发生,无疑给 Anthropic 的管控策略带来了挑战。原本,Anthropic 推出玻璃翼计划、严格限制 Mythos 的访问范围,正是为了缓解企业客户对于前沿 AI 安全风险的担忧,向市场证明公司有能力管控这类高风险的强大 AI 工具。但此次非授权访问事件的曝光,意味着哪怕是经过严格筛选的合作伙伴渠道,也可能成为风险的突破口,这不仅可能让参与玻璃翼计划的企业对合作的安全性产生疑虑,也暴露了当前前沿 AI 模型在权限管控上的漏洞 —— 当模型的能力足够强大,哪怕是部署在受限的环境中,也可能被技术爱好者或恶意行为者找到突破的路径。


目前,Anthropic 的调查仍在进行中,而这一事件也再次引发了行业对于高风险 AI 管控的讨论:随着 AI 模型的能力不断提升,如何在释放技术价值的同时,避免其被滥用,已经成为整个 AI 行业必须面对的新课题。
用户评论