[AINews] Gemma 4 crosses 2 million downloads
上周四 Google 发布 Gemma 4 的时候,我其实没太当回事——又一个开源模型,又一轮 benchmark 刷榜,见多了。但这周末看到数据有点意思:**一周 200 万下载**。对比一下,Gemma 3 去年一整年才 670 万,Gemma 2 从去年 6 月到现在 140 万。这个速度不太正常。
更不正常的是下载之后发生的事。Twitter 上一堆人在晒自己的 iPhone 17 Pro 跑 Gemma 4,40 tok/s,用 MLX 直接本地推理。Red Hat 发了量化版的 31B model card,vLLM、llama.cpp、Ollama、SGLang 全线跟进,连 Cloudflare 都第一时间上了支持。这不是常规的"开源社区慢慢适配",这是**同步首发级别的生态协调**。
我觉得真正值得注意的不是 Gemma 4 本身有多强——它确实不错,但也没到碾压级别——而是它踩中了一个临界点:**本地跑的开源模型,终于在实用性上够格到可以威胁付费订阅了**。有人直接说"Gemma 4 让我觉得 Claude 订阅没那么必要了",这话可能夸张,但情绪是真实的。尤其是对那些不需要顶级推理能力、更在意响应速度和数据隐私的场景——比如代码补全、文档问答、轻量级 agent——本地模型的性价比曲线已经反超了。
这背后有个更大的叙事在发酵:**agent 不应该依赖按月订阅的 API**。Claude 这周又出了几次故障,有人吐槽"我的 agent 跑了一半,Claude 说我超额了",还有人算账:agent 是 24/7 跑的,按 token 计费和按月订阅都不适配,要么太贵要么不够用。这时候 Hermes Agent 出来了,主打"自我改进的 agent 循环 + 持久化记忆 + 自生成技能",关键是**完全本地,完全开源**。
Hermes 和 OpenClaw 的对比挺有意思。OpenClaw 是人工写技能、Markdown 存记忆、网关式控制;Hermes 是 agent 自己生成技能、可搜索的持久化记忆栈、自我改进循环。前者更像"工具箱 + 调度器",后者更像"会学习的生物"。社区明显在往后者倾斜,不是因为技术上有多大代差,而是因为**心智模型更符合大家对 agent 的期待**:它应该越用越聪明,而不是每次都从零开始。
不过我觉得最值得关注的是另一条暗线:**开源 agent 的数据飞轮开始转了**。有人做了个工具叫 pi-share-hf,专门把 coding agent 的会话记录发布成 Hugging Face dataset,带 PII 脱敏。Hugging Face 的 CEO 直接说"这是开源 frontier agent 缺的最后一块拼图——社区本来就在生成这些 trace,为什么不众包成数据集?"这和 Baseten 提的"self-improving model 应该直接从生产 trace 学习"是一个逻辑。如果这条路走通,开源模型和闭源模型的差距会进一步收窄,因为**闭源的优势之一就是独占用户交互数据**。
回到 Gemma 4。它本身可能不是最强的模型,但它是第一个在"生态协调 + 硬件适配 + 社区情绪"三个维度同时到位的开源模型。200 万下载不是终点,是起点。接下来值得看的是:这波本地部署的用户,有多少会真的取消 Claude 订阅?还有,那些 trace 数据,谁会第一个拿来训练出真正能自我改进的开源 agent?
如果答案是"很多"和"很快",那付费 AI 订阅这门生意,可能比我们想的要早进入红海。