DeepMind’s New AI Just Changed Science Forever

Two Minute Papers Youtube

标题党年年有,今年特别多。DeepMind这次的论文标题叫"Changed Science Forever",但你点进去看,其实是一个叫FunSearch的系统升级版——用LLM来生成数学证明和算法代码。听起来很酷,但"永远改变科学"这个帽子,戴得有点大。

先说这东西到底做了什么。FunSearch的核心思路是把LLM当成一个"假设生成器":你给它一个数学问题或者优化目标,它吐出一堆可能的解法代码,然后用传统的验证系统筛选出真正work的那些。这次的升级主要在两个方向:一是扩大了适用范围,从组合数学延伸到了图论和调度问题;二是优化了搜索策略,让LLM生成的candidate质量更高,减少了无效计算。

听到这里你可能会想:这不就是把LLM接到symbolic solver上吗?对,本质上就是这么回事。但关键在于,以前我们总觉得LLM在严格推理任务上不靠谱,容易hallucination,不如直接用SAT solver或者proof assistant。DeepMind这次的贡献是证明了:只要你把LLM放在一个"生成-验证"的闭环里,让它专注于产生创意而不是保证正确性,它确实能找到一些人类数学家没想到的tricks。

比如论文里提到的一个案例:在bin packing问题上,FunSearch生成的启发式算法比人类专家设计的规则效果更好。这不是说AI比人聪明,而是说它可以在巨大的搜索空间里暴力尝试那些"看起来不太对但也许能行"的组合。人类数学家受限于直觉和审美,往往会提前剪枝掉一些"丑陋"的解法,但AI没有这个包袱。

那谁该关注这个?如果你在做combinatorial optimization相关的工程问题——比如物流调度、芯片布局、资源分配——这套思路值得试试。它不会替代你现有的solver,但可以作为一个idea generator,帮你找到更好的heuristic。如果你是做纯理论研究的,老实说,这东西现阶段还不如直接用Lean或者Coq来得靠谱。

但说实话,我对这类工作最大的疑问不是技术本身,而是叙事方式。"Changed Science Forever"这种标题,配合Two Minute Papers这种科普视频的传播,很容易让人觉得AI已经可以自动做科研了。实际上呢?它只是在一个非常窄的领域里,用一种非常特定的方式,解决了一些本来就有解但人类懒得穷举的问题。这和"改变科学"之间,还隔着好几个量级的距离。

真正值得思考的问题是:当我们把LLM用在科学研究里的时候,我们到底是在outsource什么?是体力劳动式的搜索,还是创造性的洞察?如果是前者,那它只是个更聪明的脚本;如果是后者,我们得先搞清楚LLM生成的"洞察"到底是统计规律的重组,还是真的理解了问题的本质。