闽公网安备 35020302035485号
上个月,我亲眼看着我们团队的一位工程师,第四次向 Claude Code 解释同一个认证模式。不是他记性差忘了自己讲过,而是这个 AI 工具,转头就把一切都忘了。每一次开启新会话,一切都要从零重来。“我们在网关层使用 JWT 验证,而不是在各个独立服务中。” 这句话,他三天前刚说过,一周前也说过,过去半年里,每一次启动工具都要重复一遍。每一次,AI 都会乖乖 “点头” 附和,完美遵循所有指示,可会话结束的那一刻,它就会把所有内容忘得一干二净。
我一直在琢磨这件事,因为这明明是个本该早就解决的问题。现在已经是 2026 年,这些大模型的能力早已今非昔比:它们能推理复杂的代码库、调试细微的竞态条件、编写可靠的测试用例,可偏偏,它们的运行状态,我只能用 “严重健忘” 来形容 —— 一种病理性的、完全无法记住当前会话之外任何信息的顽疾。
这种 “健忘”,放在几年前其实说得通。当 AI 编码工具还只是个自动补全引擎的时候,它根本不需要记忆。2022 年的 Copilot,不过是帮你补全单行代码,上下文也只局限在当前打开的文件里。你输入,它建议,你按 Tab 确认,会话记忆对它来说毫无意义。但现在,这些工具早已不是当年的样子了。我们早已不再只让它补全代码,我们让它跨多个文件构建功能、调试需要吃透整个系统架构的生产问题、帮新工程师快速熟悉陌生的代码库、甚至在 GitHub 上自主处理 Issue。可即便任务变了,工具的底层逻辑却没变 —— 每一次,它都要从零开始。
我总忍不住用一个比喻来形容这种离谱的体验:想象你雇了一位才华横溢的承包商,可他每天早上来上班时,都带着完全的失忆。他会写代码,速度也很快,但每天你都要花第一个小时,向他重新解释项目情况、团队规范、已经做出的决策,还有你们已经踩过的坑、吸取过的教训。到了第二天早上?一切又要重来一遍。这就是现在,每个团队、用着每款 AI 编码工具,都在经历的日常。
最让我困扰的是,AI 一直忘记的那些东西,根本就不在代码里。它们是那些藏在字里行间、只有团队内部才懂的隐性信息:我们为什么选了 Postgres 而不是 DynamoDB?一方面是它适配我们的查询模式,更重要的是,整个团队在 Postgres 上经验深厚,对 DynamoDB 却完全陌生。
为什么通知服务是个单体模块,而不是流行的微服务?我们试过拆分微服务,结果一塌糊涂,第三季度就回滚了,可没人把这段踩坑的经历写进文档。还有计费流水线的那个隐藏雷区:高负载下,事件会被无声丢弃。整个团队只有两位工程师知道这件事,其中一位,刚提交了离职通知。这些信息,没有一个存在 AI 能扫描到的代码文件里。有些藏在八个月前的 Slack 对话里,大部分,只存在于人们的脑子里。而恰恰是这些看不见的上下文,决定了 AI 输出的内容,到底是能用的正确代码,还是藏着细微却致命错误的垃圾。
我太清楚你现在在想什么了,因为我一开始也这么想:把这些信息都写下来不就行了?写个 [CLAUDE.md](CLAUDE.md),或者.cursorrules,把所有团队规则、历史决策都写进配置文件,让 AI 每次都加载它不就好了?我们试过,所有人都试过。这方法确实有用 —— 但只管用三周。三周之后,文件就彻底过时了,没人会去更新它。毕竟更新配置文件是纯维护工作,没法帮你把功能推上线。写下原始文件的人,早就转去做别的项目了;新的决策在日常对话里产生,没人会特意同步到那个静态文件里。到最后,这个文件就成了一件历史文物,只能大致反映团队半年前的想法,仅此而已。
这不过是老掉牙的维基问题重演:有人怀着好心创建了它,可它从诞生的第一天起就开始腐烂。不出半年,开发者都会主动不信任它,因为谁都吃过照着过时信息干活的亏。还有人说,用更大的上下文窗口不就行了?20 万 token 不够,那就升级到 100 万,把所有东西都塞进去。可我想了很久才发现,这根本就是搞错了问题的核心。更大的上下文窗口,只是给当前会话提供了更大的空间,它根本没给 AI 记忆的能力。它没法告诉你,团队上个季度为什么做了那个架构决策;不知道那次生产事故,如何改变了整个团队对错误处理的认知;也不清楚 Sarah 才是唯一懂对账流水线的人。
更大的窗口,不过是更大的草稿本。会话结束的时候,这本草稿本还是会被清空。你根本没治好健忘症 —— 你只是给健忘症患者,换了一本更大的笔记本,而这本笔记本,到了晚上还是会被烧掉。最近更流行的说法是,多加几个智能体就好了?面对 “AI 知道的不够多”,答案居然是 “再加几个同样啥都不知道的 AI,给每个分个更窄的活”。
一个审核智能体、一个测试智能体、一个部署智能体,十五个专门的智能体,每个都带着硬编码的任务指令。团队里有人写这些指令,就得有人维护它们。审核标准变了,有人要改审核智能体;测试框架更了,有人要更测试智能体。这不过是把配置文件的问题,搬到了更高的抽象层,只是多了一堆要维护的部件而已。而且你猜怎么着?这些智能体,没有一个懂你的组织。它们只知道有人硬塞给它们的指令,根本不知道你的团队上周刚学到了什么。
我总是忍不住回到这个问题上:如果 AI,能记住呢?不是记住那些杂乱的原始对话记录 —— 那都是没用的噪音。而是记住真正有价值的知识:从对话里提取出来的决策、模式、踩过的坑、团队的规范,把这些存下来,在未来的每一次会话里都能用。不是只给当时对话的那个工程师,而是给整个团队。一位工程师解释了,我们为什么给审计系统用事件溯源模式,这个解释,就会变成一个结构化的知识项 —— 其他所有工程师,在未来的每一次会话里,都能用到它,不用任何人去维护什么文件。
有人在调试的时候,发现了两个服务之间的隐藏耦合,这个发现会被自动捕捉下来。下次有人碰这两个服务里的任何一个,AI 早就知道这个耦合的存在了。不是因为有人特意去记录了它,而是因为系统,在知识产生的那一刻,就已经在 “倾听” 了。周二帮你调试计费问题的 AI,到周四你开新会话的时候,它早就记得你上次发现的问题了。下个月新来的工程师,入职第一天,他用的 AI,就已经知道整个团队过去一年里学到的所有东西。
我总在想这件事,因为它会彻底改变这些工具的本质。它不再只是一个帮你写代码更快的助手,它会变成整个组织的 “集体记忆”。不是那种要靠人维护的死维基,而是一个活的知识库 —— 只要人们用这个工具,它就会自己成长。
我越来越觉得,AI 编码工具的市场,马上就要分裂成两个完全不同的阵营。一边,是帮单个工程师更快写代码的工具。这类工具正在快速商品化,模型每个季度都在降价,包装越来越薄,根本没有什么持久的竞争壁垒。另一边,是能把整个组织的集体智慧,永久地带给每一位工程师、每一次会话的工具。这类工具,现在还不存在 —— 至少,没有真正能跑通的。