Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

模型: openai/gpt-5.4
生成日期: 2026-04-01
书名: Claude Code VS OpenCode:架构、设计与未来
章节: 第21章 — 多智能体编排的艺术
Token用量: 约 6,300 input + 2,040 output

21.4 智慧积累 vs 上下文隔离

多智能体系统里有一个非常深的分歧,表面上不显眼,但实际上决定了系统气质:前一个子智能体学到的东西,要不要系统性传给后一个子智能体? OMO 与 Claude Code 在这个问题上给出了两种很不同的答案。OMO 更强调 wisdom accumulation(智慧积累),也就是把子智能体产出的学习、发现、经验摘要提炼出来,传递给后续 agent 或后续轮次。Claude Code 更强调 context isolation(上下文隔离),也就是让每个子代理尽量在一个较干净的上下文窗口里工作,减少历史噪音与偏见污染。

OMO 的智慧积累思路,背后其实是一种“组织学习”模型。真实工程团队不会在每次切换执行者时都故意失忆。如果前一个人已经知道关键文件在哪里、某个假设已经被证伪、某份外部文档和本地实现存在冲突,那么这些发现应该被保留下来。OMO 的价值就在于,它尝试把一次性劳动提炼成可复用的中间智慧,让后续 agent 不用从零再搜一遍。对于长任务、跨轮任务、会被中断的任务,这种设计尤其有价值。

这种做法的好处很直接。

第一,它减少重复劳动。很多 token 本来是花在“重新找到同样的线索”上,智慧积累可以把这部分成本压下来。

第二,它增强续航能力。如果任务在 compaction(上下文压缩)之后恢复,或者会话中断之后继续,已有智慧就像一条 breadcrumb trail(面包屑路径),帮助系统重新接上状态。这里“面包屑”不是教材里的正式术语,但它常用来表示一串保留路径、帮助回到先前状态的中间痕迹。

第三,它让后续 agent 可以站在更高抽象层上工作。后来的 agent 不用再烧预算去做低水平侦察,而能更快进入判断、实现、综合阶段。

但智慧积累并不是纯收益。它的代价是偏见继承。如果早期 agent 得到了错误结论,而这些结论又被压缩成看似权威的摘要,后面 agent 很容易把它们当成既定事实。换句话说,智慧积累提高了效率,却可能降低认知新鲜度。系统会在“前面的智慧是对的”时变得更聪明,也会在“前面的智慧是错的”时变得更脆弱。

Claude Code 的上下文隔离,正好是在解决相反的问题。它尽量让子代理在一个更干净的任务窗口里工作,减少历史上下文对当前判断的锚定影响。这里的“锚定”(anchoring)是心理学和决策理论里的常见概念,指先看到的信息会不成比例地影响后续判断。上下文隔离的好处,是让每个子代理更容易做独立判断,特别适合验证、批判、第二意见、替代方案比较。它也更利于调试,因为错误链条更短:某个子代理答错了,你更容易看到它错在自己的局部上下文,而不是被一堆历史残留诱导。

但隔离的代价同样明显:它很容易重新付出搜索成本。每个 clean window(干净窗口)都意味着一些已经发现的东西必须重新引入,或者重新发现。于是系统得到的是“新鲜判断”,失去的是“连续记忆”。更麻烦的是,这会把更大负担压回父 agent:父 agent 必须决定到底传多少上下文给子代理。传得太少,子代理缺关键事实;传得太多,隔离就失去了意义。

所以,这个问题本质上是一个非常标准的架构权衡:

  • 智慧积累 优化连续性、记忆性、低重复。
  • 上下文隔离 优化新鲜度、可审计性、抗污染能力。

它们没有绝对优劣,只是适配场景不同。

如果任务是大仓库探索,智慧积累往往很值钱。前一个 agent 已经把地形摸出来了,再让后一个 agent 从零开始,通常纯属浪费。如果任务是独立验证,上下文隔离更好,因为 verifier(验证者)不该被候选解法的叙事框架完全裹挟。如果任务很长、可能被压缩、会跨轮恢复,积累非常有帮助;如果任务很敏感,希望不同 agent 真正独立判断,隔离会更健康。

OMO 的做法更像一个会记笔记、会交接、会持续学习的工程团队。Claude Code 的做法更像把一个外部顾问请进一个干净会议室,给它一个明确 brief(简报),让它独立做判断,再把结果带回主会场。两者都很合理,差别只是系统是更像“组织”,还是更像“受控顾问池”。

真正成熟的未来架构,很可能不会只选边站,而是把两者结合起来。关键不是“记忆还是隔离”二选一,而是哪些信息值得保留,哪些信息必须隔离。例如,仓库结构、已验证事实、用户明确约束,这些很适合保留;未经验证的假设、推测性解释、可能带偏见的摘要,则更适合局部封存。

因此,可以考虑一个三层记忆模型。第一层是 durable facts(持久事实),适合广泛复用。第二层是 working hypotheses(工作假设),可以传递,但要带置信度标签。第三层是 ephemeral reasoning(临时推理痕迹),默认只留在本地,除非被显式提升。这个模型不是教材里的标准术语体系,但它能很好描述多智能体系统里“什么该积累、什么该隔离”的工程现实。

对构建者来说,最重要的教训是:不要把知识传递当成自然副作用,而要把它当成显式接口。如果要积累智慧,就标注来源与可信度;如果要做上下文隔离,就让摘要尽量克制、结构化、最小必要。失控的积累会把系统变成教条机器,过度的隔离会把系统变成失忆机器。

归根到底,多智能体系统质量不只取决于“能不能派出子智能体”,还取决于“学习如何在子智能体之间移动”。OMO 告诉我们,记住有时是生产力;Claude Code 告诉我们,忘记有时是安全边界。真正的艺术,是知道什么时候该记,什么时候该忘。