[AINews] The Claude Code Source Leak

Latent.Space Substack

上周 Anthropic 的 Claude Code 源码泄露了,500k 行代码直接暴露在公网上。起因是打包时 source map 没处理干净,结果整个 agent 编排逻辑、内存管理、子任务系统全给人扒了个底朝天。Anthropic 后来发了 DMCA 删除通知,但这事儿的重点早就不在"泄露"本身了——所有做 coding agent 的团队都在研究这套架构,因为这是目前能看到的、离生产环境最近的 AI agent 实现。

先说结论:这次泄露最有价值的不是代码质量(虽然工程师们确实在吐槽某些实现),而是暴露了 Anthropic 对 agent 问题的理解深度。比如他们的三层记忆系统:第一层是 MEMORY.md 作为索引,第二层是按需加载的主题文件,第三层是可搜索的完整 session 记录。更绝的是有个 autoDream 模式,会在"睡眠"时合并记忆、去重、剪枝、消除矛盾——这套设计直接回应了长期对话中 context 膨胀和信息冲突的核心痛点。

另一个被反复提及的是子任务并行化。Claude Code 用 prompt caching 实现了 fork-join 模型:子 agent 继承完整上下文但不用重复计算,意味着并行几乎零成本。这解释了为什么 Claude Code 在处理复杂任务时感觉比其他 agent 快——不是模型快,是架构设计让并行变得可行。对比一下市面上大部分 agent 框架还在用串行调用或者手动拆分上下文,你就知道这个差距有多大。

工具层面倒是没什么黑科技,默认开 20 个工具(总共 60+),包括标准的文件读写、bash、LSP、web search,还有几个有意思的像 AskUserQuestionTool 和 EnterPlanModeTool。真正的细节在执行策略:aggressive cache reuse、文件读取去重、工具结果采样——都是为了控制 token 消耗和 latency。另外他们会把 repo 状态(最近 commit、分支信息)直接塞进 context,这招看着简单但确实有效,相当于给模型提供了"工作现场"的完整快照。

泄露还暴露了一堆未发布功能,包括 ULTRAPLAN、KAIROS、内部员工专用的 TUI,以及一个叫 /buddy 的愚人节彩蛋。有人甚至发现了工程师 Boris 的 WTF counter——这种细节反而让人觉得亲切,毕竟再牛的产品背后也是一群写着屎山代码的人。

这事儿对行业的影响可能比 Anthropic 预想的大。OpenAI 刚宣布史上最大融资、$24B ARR、增速是 Google/Meta 巅峰期的四倍,但 ChatGPT 的 WAU 增长已经停滞,年底 10 亿 WAU 的目标看起来悬了。Codex(应该是指 Cursor)三月也没公布新数据。这个时间点 Claude Code 的架构细节被扒出来,等于给所有竞争对手发了一份参考答案——不是说照抄就能赢,而是大家现在知道 Anthropic 在哪些地方下了功夫,哪些问题他们认为值得用复杂设计去解决。

如果你在做 agent 产品,这次泄露基本是圣诞节提前到了。如果你只是用户,可能感知不到什么变化。但有一点值得想:当所有人都能看到 state-of-the-art 的实现细节时,真正的护城河到底是什么?