在大模型和智能体(Agent)系统快速发展的今天,“上下文工程”成为了影响系统性能、稳定性乃至可扩展性的关键议题。最近读到两篇被业内高度认可的文章——《How to Fix Your Context》和 Manus 的六大上下文工程法则,深感二者从不同视角切入,却在底层逻辑上高度一致。前者来自一线 Agent 系统实践者的经验总结,后者则是从系统架构的高度,思考大模型工作方式的认知构建。将两者结合阅读,有如“内功交叉灌顶”,极大拓宽了对上下文工程的理解。
本文试图梳理这两篇文章的核心观点,并结合自己的工程实践,探讨如何构建高质量的上下文工程体系,助力智能体系统稳定高效地运行。
为什么长上下文会失败?
在实际开发和应用中,长上下文并不总能带来更好的效果,反而常常成为系统失效的根源。作者总结了四大常见失败模式:
上下文污染:当幻觉或错误信息进入上下文并被反复引用时,模型会不断放大这些错误,最终导致输出失真。
上下文干扰:上下文过长,模型过度关注上下文细节,反而忽略了训练期间学到的核心知识。
上下文混淆:多余、无关的信息被模型用于推理,生成低质量响应。
语境冲突:上下文中新旧信息或工具定义发生冲突,导致模型行为不一致。
细想之下,这些问题几乎是每个开发者都曾遇到过的“坑”。只有正视并理解这些失败的根源,才能找到有效的解决方案。
六大上下文工程法则
1. 有策略的RAG:选择性检索与信息建模
RAG(Retrieval-Augmented Generation)是当前大模型应用的主流范式,但很多人误以为“查得多就是好”。实际上,信息的添加逻辑不是“查到了”,而是“查对了”。作者强调,RAG要有选择性,围绕当前任务构建语义增强,而不是无脑堆砌资料。Manus 的做法更进一步,干脆把信息挂载在文件系统,只留下 path、摘要和可调用工具,把 token 成本压缩到极致。我的经验是:即便检索很准,如果上下文没引导模型推理方向,输出依然无感。高质量RAG的核心在于信息在认知链条中的地位,重要的要“知道在哪+能够调”,而不是硬塞进上下文。策略优于检索,这是两篇文章的共识。
2. 工具配置:行为可变,结构不变
工具定义的管理是智能体系统的另一大难点。作者主张按需加载工具定义,提升上下文相关性。Manus 则采用全集不变、mask 控制权重的方式,避免因工具定义变动导致 cache miss 和幻觉增多。归根结底,二者都在追求“行为可变但结构不变”的系统:让模型始终清楚自己拥有哪些选择,保证上下文命中率和行为稳定性。选择哪种方式,取决于业务需求和系统架构,但目标是一致的。
3. 上下文隔离:多线程与分支管理
多任务并发时,最怕上下文混淆。作者建议将上下文隔离在各自专用的“线程”中。Manus 虽无线程抽象,但通过 append-only 的 context、每轮状态复述和工具调用封装,实现了逻辑线程的效果。一旦发现幻觉或目标漂移,建议立即 snapshot 当前上下文,开启新分支,而不是强行修复旧 context。这样做虽然增加了一次调用成本,却能极大提升系统稳定性,避免“越补越乱”的局面。
4. 上下文修剪:删除失效信息,优化注意力分配
很多人以为上下文修剪只是删“旧内容”,其实真正要删的是“结构上已失效的信息”。能 offload 的就 offload,不能的则摘要。摘要不仅压缩信息,更重要的是为大模型构建注意力锚点,引导其聚焦核心任务。保留失败的 trace 也是一种重要策略。Manus 会将失败信息 offload 到外部 trace 文件,在后续回顾或 summary 阶段引用。错误是最宝贵的训练材料,不应被遗忘。
上下文修剪的核心目标不是“省空间”,而是让每个 token 都承担“策略密度”,修剪掉的是注意力的错位,而非简单的冗余。
5. 上下文总结:高效行为生成的关键
总结是为了更高效的行为生成。Manus 更极致,每一轮都复述当前目标、状态和期望动作,用自然语言重激活注意力焦点。实际测试发现,不复述时行为漂移率高达30%,而复述后几乎能稳定在主任务路径上。总结的意义不在于让模型记住细节,而是帮助其主动遗忘非核心内容,实现注意力的再分配。
6. 上下文卸载:主存与外存的分工
许多开发者低估了 context offloading 的价值。实际上,给 Agent 留出一块临时记忆区,可以极大提升多步骤任务的稳定性。Anthropic 的 Claude 就有专用 scratchpad,允许模型在正式输出前先“思考”一番。Manus 的做法是将中间状态模块化写入文件系统,既不占用主 memory,又比 response 更结构化。真正有用的信息往往是过程中的状态,而不是最终答案。主线程存放核心信息,scratch 区存放过程状态,两者分工明确,系统才能高效运转。
从“信息堆”到“系统运行时”:上下文工程的未来
过去我们常常将上下文视为一个信息堆,能塞多少塞多少。但随着大模型能力的提升和应用场景的复杂化,简单的信息堆砌已无法满足需求。上下文工程的本质,是系统运行时的设计艺术——如何让每个 token 都服务于策略目标,如何让模型始终聚焦于主任务,如何让信息流动高效且有序。
结合最近对“vibe coding”的观察,我越来越相信,未来 AI 系统的核心代码,不再是传统意义上的指令集,而是你为模型设计的上下文构建逻辑。上下文工程将成为智能体开发的必修课,理解并掌握这套方法论,是每一个 AI 工程师的必经之路。
结语
上下文工程并非高深莫测,但要做得好,需要对大模型的认知机制、工具管理、信息流动有深刻理解。本文梳理了《How to Fix Your Context》和 Manus 六大法则的核心思想,并结合实际经验给出了一些操作建议。希望能为正在探索智能体系统的你,提供一些启发和参考。
最后,强烈建议将这两篇文章列入上下文工程必读清单。只有真正搞懂它们,才能算是真正入门 Agent 系统的开发之道。