Anthropic Ceo's Terrifying AI Prediction Explained
看到Anthropic CEO又发"可怕预测"的标题,我点进去看了一眼,结果发现这就是个典型的YouTube标题党案例——把一句常规的AI风险讨论包装成"terrifying prediction",然后视频里塞满订阅链接和课程推广。
但这事儿本身倒是值得聊聊,因为它反映了现在AI信息传播的一个怪现状:真正做技术的人说的话,经过二道贩子加工后,变成了焦虑贩卖的素材。
Anthropic的Dario Amodei这些年确实反复提过AI安全问题,但他的核心观点一直很清晰:不是说AI会突然觉醒毁灭人类,而是担心capability和safety之间的gap越拉越大。Claude的Constitutional AI就是他们的应对方案——让model在训练阶段就内化安全原则,而不是靠外部filter打补丁。这是技术路线之争,不是什么末日预言。
真正该关注的是Anthropic最近的动作。他们刚拿了新一轮融资,估值冲到600亿美元,同时在疯狂招GPU相关的infra工程师。这说明什么?说明他们在准备训练更大的model,而更大的model意味着更强的capability,也意味着更难控制的风险。所以Dario现在出来讲safety,某种程度上也是在给自己的scaling计划做舆论铺垫。
对比OpenAI的做法就更有意思了。OpenAI现在基本不怎么公开谈safety了,他们的策略是用产品迭代速度来建立护城河——GPT-4到GPT-4 Turbo到现在的各种fine-tuned版本,节奏快到竞争对手根本跟不上。Anthropic走的是另一条路:用"我们更负责任"来做差异化,吸引那些对AI ethics敏感的企业客户。
所以这个"terrifying prediction"到底是什么?如果你真去看原始采访,Dario说的无非是:如果我们在未来几年内造出了AGI级别的系统,但没有相应的safety机制,那会很危险。这不是预测,这是常识。就像你造核电站之前得先想好怎么防止泄漏一样。
但为什么这种常识性的话会被包装成"可怕预测"?因为焦虑是最好卖的商品。那些做AI培训课程、卖newsletter订阅的人,需要不断制造"你不懂这个就要被淘汰"的紧迫感。这套玩法在crypto时代用过,在web3时代用过,现在轮到AI了。
如果你是工程师或者PM,真正该花时间研究的是Anthropic的Constitutional AI论文,看看他们怎么在RLHF基础上加了一层principle-based的约束。或者去试试Claude的API,对比一下它和GPT-4在不同prompt下的表现差异。这些才是能转化成实际工作能力的东西。
至于那些"10分钟学会AI"的课程和"AGI准备指南",你觉得真有人能把这么复杂的领域压缩成10分钟吗?如果可以,那OpenAI和Anthropic的几百个PhD在干什么?