[AINews] H100 prices are melting *UP*
H100 租金在过去三个月里涨了回去,现在的价格比三年前刚发布时还高。这事儿值得聊,因为它打破了数据中心行业一条铁律:算力折旧是单向的。
按常规剧本,H100 应该在 2024 年底进入贬值加速期。NVIDIA 自己的 Blackwell 架构已经开始出货,市场上 H200 也在铺开,DeepSeek R1 那波冲击又让所有人重新算了一遍 ROI。去年十月我们还在讨论 H100 租金跌得比上一代 A100 快,像是需求泡沫挤出的信号。结果到了今年三月,曲线拐了个 U 型回来,Dylan Patel 在 Dwarkesh 的播客里直接说"H100 现在比三年前更值钱"。
这不是供应链短期波动,背后是两股力量叠加。第一股是推理需求的结构性变化。去年十二月开始,reasoning model 和 agent 工作负载突然从实验室走到生产环境,这类任务对推理吞吐的要求和训练完全不同——你需要的不是峰值 FLOPS,而是稳定的并发处理能力和低延迟。H100 在这个场景下的性价比反而比预期高,因为配合这半年优化出来的推理软件栈(vLLM、TensorRT-LLM 那些),一张四年前设计的卡能榨出的实际 throughput 比当初的 depreciation schedule 假设的多太多。
第二股是芯片短缺的老问题又回来了。Blackwell 产能爬坡慢,H200 铺货也没想象中快,与此同时 Anthropic 要上 Capybara、OpenAI 在推 Codex agent、各家都在扩 serving capacity。供需缺口一拉开,二手市场和租赁市场立刻反应。更关键的是,现在大家对算力的预期变了——不再是"买新卡等摩尔定律",而是"能拿到的卡就是好卡"。
这对数据中心的 tokenomics 影响是实质性的。如果你去年按 4-7 年折旧周期做的财务模型,现在账面上那批 H100 的残值突然高了一大截,这意味着你的资本效率、融资能力、甚至定价策略都得重新算。对云厂商来说,这是好消息——资产升值了;对想租卡的创业公司来说,这是坏消息——成本又上去了。
更有意思的是,这波涨价和开源推理生态的进步形成了对冲。GLM-5.1、Qwen 3.5 这些模型在本地部署的经济性越来越好,@TheGeorgePu 直接把付费 TTS 服务换成了本地跑的 Qwen 14B,@0xSero 把 Qwen 35B 压到 24GB VRAM 里跑满 context 只掉 1% 性能。H100 租金涨,反而加速了一部分团队往 RTX 6000 Ada 或者 4090 集群上迁移——不是因为性能够,而是因为边际成本算得过来。
所以这不是简单的"芯片又贵了",而是整个算力市场在重新定价:训练和推理的价值曲线分叉了,新卡和旧卡的替代关系没有想象中强,开源和闭源的成本平衡点在快速移动。如果你在做 infra 决策,现在可能是最需要重新跑一遍 TCO 模型的时候——因为那些你以为会贬值的资产,正在变成稀缺品。