Import AI 452: Scaling laws for cyberwar; rising tides of AI automation; and a puzzle over gDP forecasting
有个数字挺吓人的:AI 的网络攻击能力每 5-10 个月翻一倍。不是线性增长,是指数级的。Lyptus Research 最近做了个测试,拿从 GPT-2 到最新的 o3、Opus 4.6 这些 model 去跑网络安全任务,发现顶级 model 现在能搞定那种需要专业黑客花 3 个小时才能完成的任务,成功率 50%。更要命的是,开源 model 只落后闭源 frontier model 大概半年。换句话说,今天 OpenAI 或 Anthropic 能干的攻击,明年开源社区就能复制。
这事儿其实不意外。AI 本质上是个"万能机器"——能帮你写代码就能帮你找漏洞,能做生物研究就能搞生物武器设计。能力的通用性意味着风险也是通用的。每一代 model 能力越强,policy 层面要处理的麻烦就越多。防御方和攻击方现在是在同一条 scaling law 上赛跑,只不过攻击方的门槛在快速降低。
但真正值得关注的不是技术本身会被怎么滥用,而是谁在这场变化里占据主动。INSEAD 和哈佛商学院刚发了个研究,追踪了 515 家创业公司,结论很直接:那些把 AI 深度整合进内部流程的公司,收入是对照组的 1.9 倍,完成的任务多 12%,获得付费客户的概率高 18%,而且资本需求少了 40%。
这个实验设计挺聪明。他们没有只是给创业者发 API credit 和上几节课,而是专门给一部分公司展示了真实案例:Gamma 怎么用 AI 让一个 PM 干原本需要整个团队的活;Ryz Labs 怎么同时用多个 AI coding tool 并行开发同一个功能;FazeShift 怎么把应收账款流程自动化掉。结果这些被"启发"过的公司发现了 44% 更多的 AI 应用场景,而且这些场景集中在产品开发和战略层——不是拿 AI 当客服机器人,而是真的在用它重构核心生产流程。
关键在于,这不是技术问题,是认知问题。实验里所有公司都拿到了同样的 API 和 model access,差别只在于有没有人告诉他们"别人是怎么用的"。那些没被启发的公司不是不想用 AI,而是不知道可以用在哪儿。这跟当年互联网刚起来时一样——不是所有人都能想象出 Amazon 那种玩法,大部分人只是把网站当成电子版的产品目录。
现在的格局已经很清楚了:AI-native 的公司在用更少的人、更少的钱做更多的事,而且这个差距还在拉大。一个创始人在研究里说得很直白:"几个小时就能做出以前要花 1000 美元外包的东西。"这不是效率提升 10%、20% 的问题,是量级的差异。
所以回到网络安全那个话题,真正的风险可能不是某个 model 能破解多少系统,而是当攻击能力和防御能力都在快速 scaling 的时候,谁能更快地把这些能力整合进自己的工作流。那些还在用传统方式做安全的团队,面对的不只是更强的 AI 工具,而是那些已经把 AI 变成肌肉记忆的对手。
问题是:你的团队现在是在用 AI 做事,还是在做"关于 AI"的事?