Claude's Source Code Got Leaked Across The Whole Internet

Matt Wolfe Youtube

上周末 Anthropic 的 Claude 源代码泄露了,朋友圈里转疯了,标题都是"AI巨头核心机密外泄"。我花了点时间看完,老实说,这事儿的戏剧性远大于技术含金量。

先说泄露本身。这次流出的不是 model weights,不是训练数据,而是 Claude 的应用层代码——简单说就是 Anthropic 怎么把 LLM 包装成产品的那套工程实现。包括 prompt engineering 的模板、safety filter 的逻辑、API 的内部调用方式这些。对,就是那种你在大厂内部 GitLab 上能看到的业务代码,只不过这次是 Anthropic 的。

这里要澄清一个认知:很多人以为泄露了"AI 的秘密",好像拿到代码就能复刻一个 Claude。实际上完全不是这么回事。这就像你拿到了微信客户端的代码,但没有后端服务、没有用户数据、没有推荐算法的 model,你能干什么?最多看看人家怎么写的 UI 交互和接口封装。Claude 真正的护城河——那个几百亿参数的 model、Constitutional AI 的训练方法、海量的 RLHF 数据——这些一个字都没漏。

不过话说回来,泄露的东西对某些人还是有价值的。如果你在做 AI safety 研究,想知道 Anthropic 具体怎么实现内容审核,这次能看到不少细节。如果你在搭建自己的 LLM 应用,他们的 prompt 工程实践、错误处理机制、latency 优化手段,确实可以当参考。但这些东西,说白了,行业里做得好的团队早就有自己的一套了,Anthropic 的实现未必就是最优解。

更值得聊的是这事儿背后的趋势。这已经是今年第几起 AI 公司代码泄露了?OpenAI 内部文档流出过,Google 的 Gemini 相关材料也传过。一方面是因为这些公司扩张太快,员工从几百人膨胀到几千人,代码权限管理跟不上。另一方面,AI 行业的人员流动率高得离谱,带走点"纪念品"的动机和机会都不少。

对工程师来说,这次泄露最大的启发可能是:大厂的 AI 产品在工程层面并没有想象中那么神秘。很多时候就是扎实的软件工程 + 大量的 prompt 调优 + 不断迭代的 safety 规则。真正拉开差距的还是 model 本身和训练它的能力,而这些是泄露不出来的。

所以如果你指望从这次泄露里找到什么颠覆性的技术洞察,可能要失望了。但如果你想印证一个事实:AI 时代的护城河到底在哪里,这倒是个不错的案例。代码可以泄露,架构可以模仿,但数据、算力和持续迭代的组织能力,才是复制不了的东西。