Import AI 451: Political superintelligence; Google's society of minds, and a robot drummer
看完Andy Hall那篇关于"political superintelligence"的文章,我第一反应是:这可能是今年我看到的最不天真的AI政治讨论。
大部分人谈AI和政治,要么是硅谷式的乌托邦——"AI会让每个人都能参与民主决策",要么是反乌托邦——"AI会被用来操纵选举"。Hall的思路不一样,他直接承认了一个很多人不愿面对的事实:我们肯定会拥有能够深度理解和参与政治的AI系统,问题不是要不要,而是这些系统最终服务谁。
他提出的三层架构值得仔细看。信息层比较好理解,就是让政府和公民都能更好地处理数据、理解问题。但representation layer才是真正有意思的地方——想象一下,每个人都有一个AI agent持续监控政策动态,代表你的利益发声,甚至在某些场景下直接参与决策。听起来很美好,但Hall马上指出了致命问题:如果你的agent所属的AI公司和你的政治立场冲突怎么办?如果有人开始针对这些agent做adversarial prompting,用精心设计的话术影响它们的判断怎么办?
这就引出了governance layer,也是整篇文章最核心的部分。Hall很清楚,就算我们解决了所有技术问题,这些能力最终还是掌握在少数几家公司手里。他说的"我们需要一种方式来制定规则",翻译成大白话就是:如果不主动设计监督和制衡机制,political superintelligence最后只会变成corporate superintelligence。
这让我想起最近和几个做政务系统的朋友聊天,他们说现在很多地方政府已经在用LLM处理信访、分析舆情,但基本都是黑盒操作,没人说得清这些系统到底是怎么理解和分类公民诉求的。Hall提出的transparency regime和标准API接口,听起来像是技术方案,实际上是在问一个政治问题:谁有权审视和调整这些系统的行为?
对比一下那个机器人打鼓的研究就更有意思了。DexDrummer用了hierarchical policy、contact curriculum这些精巧的技术,结果还是只能笨拙地敲几下鼓。物理世界的问题依然需要大量手工调优,离通用性差得远。但political superintelligence不一样——它不需要完美,只需要足够有用,就会被大规模部署。而一旦部署,它塑造的不是产品体验,是权力结构。
Hall说他"不想让AI慢下来,只想加快建立让我们保持自由的结构"。这句话听起来很理想主义,但我觉得他是对的。现在的问题不是技术能不能做到,而是在技术做到之前,我们有没有准备好相应的制度设计。OpenAI、Anthropic这些公司都在谈model constitution,但谁来审核这些constitution?谁来确保它们不只是公关文档?
如果你在做任何跟公共服务、政务系统、甚至只是大规模C端产品相关的AI应用,Hall提出的问题都值得认真想想:你的系统在为谁的利益服务?用户能在多大程度上理解和影响系统的行为?当你的商业利益和用户利益冲突时,系统会站在哪一边?