• 不用再做AI 的 “监工”!Claude推出全新的“自动模式”
  • 发布于 2小时前
  • 3 热度
    0 评论
  • 卧龙生
  • 1 粉丝 63 篇博客
  •   

堆代码讯 近日 AI 公司 Anthropic 针对旗下编码助手 Claude Code 推出了全新的自动模式(Auto mode),试图解决当下 AI 辅助编码的一大痛点:在流行的 “氛围编程(vibe coding)” 模式下,开发者要么全程紧盯 AI 的每一步操作,要么就得承担模型失控的风险。而这一全新的功能试图让 AI 自行判断操作的安全性,在效率与管控之间找到新的平衡点。


这一举措其实是整个 AI 编码工具行业的共同趋势。随着 GitHub Copilot、OpenAI 相关工具的迭代,越来越多的产品开始支持 AI 自主代替开发者完成任务,无需每一步都等待用户确认。但如何平衡效率与安全始终是行业难题:安全规则太严,会频繁打断开发者的节奏拖慢效率;规则太松,又可能让 AI 执行危险操作,导致不可预测的后果。Anthropic 的自动模式,正是该公司在这一方向上的最新尝试,目前该功能处于研究预览阶段,可供测试但尚未正式发布。

据介绍,自动模式的核心逻辑是在 AI 执行操作前,先通过 AI 安全机制完成一轮前置审核:一方面检查是否存在用户未授权的危险行为,另一方面排查提示词注入攻击的迹象 —— 这类攻击会将恶意指令隐藏在正常内容中,诱骗 AI 执行非预期操作。审核通过的安全操作会自动执行,风险操作则会直接被拦截。

在此之前,Claude Code 已经有一个dangerously-skip-permissions指令,能够让开发者一次性放开所有权限,让 AI 自主完成所有操作,但完全没有安全兜底。而自动模式本质上是在这个功能的基础上,新增了一层安全防护,既保留了自主执行的效率,又补上了安全短板。


和此前的同类工具不同,Anthropic 把 “什么时候需要向用户申请权限” 的判断权,从用户手里转移给了 AI 本身。过去开发者要么全程手动确认每一步操作,要么一次性放开所有权限;而现在,AI 会自己判断哪些操作是安全的可以直接执行,哪些需要停下来向用户申请,相当于给 AI 装了一个 “自动把关人”。

不过目前 Anthropic 尚未公开这套安全机制的具体判断标准,这也是不少开发者关心的问题 —— 毕竟只有清楚 AI 如何区分安全与风险操作,才能放心地把权限交出去。目前 TechCrunch 已经就这一问题联系 Anthropic 寻求更多信息,暂未得到回复。


自动模式是 Anthropic 近期 Claude 工具生态的最新一环,此前该公司已经推出了自动代码审查工具Claude Code Review,能够在代码入库前提前排查漏洞,以及 AI 代理任务工具 Dispatch for Cowork,支持用户把工作交给 AI 代理代为处理。据 Anthropic 介绍,自动模式将在未来几天内率先向企业版用户和 API 用户开放,目前仅支持 Claude Sonnet 4.6 和 Opus 4.6 两个版本的模型。同时公司也提醒,建议用户在隔离的沙箱环境中使用该功能,与生产系统做隔离,避免万一出现问题造成不可逆的损失。


随着自主 AI 编码工具的普及,如何在解放开发者双手的同时守住安全底线,已经成为整个行业的新考题,Anthropic 的这一尝试,也为行业提供了一个新的探索方向。
用户评论