国产模型打“价格战”底气从哪儿来?一文告诉您答案!(2)

2026-04-02 17:41  头条

一、

一度电只差几美分,一年能差出 1600 万美元

过去两年,大模型竞争最受关注的是训练:谁拿到更多芯片,谁投入更多资本开支,谁就更有机会训练出更强的模型。

随着模型能力逐步接近、调用量迅速增长,商业竞争的重心正在从训练转向推理。

训练更像一次性投入,模型练完之后,这部分成本基本沉没。

推理不同,每一次对话、代码补全和 API 调用,都会实时消耗算力、占用机房、吃掉电力。调用量越大,持续性的运营支出就越重要。

IEA 及多家研究机构测算,全球数据中心用电将从 2024 年的约 415 TWh 增长到 2030 年的 945 TWh。五年时间,几乎翻倍,达到相当于日本当前全部电力消费的水平。

(图:全球数据中心电力消耗预测;数据来源:IEA;制图:Claude)

美国的数据同样醒目。2024 年,美国数据中心用电约 183 TWh。到 2030 年,这个数字预计会升到 426 TWh。

增长最快的不是普通服务器,而是 AI 服务器。IEA 提到,AI 目前约占数据中心电力消耗的 5% 到 15%,到 2030 年可能升至 35% 到 50%。Gartner 的预测更直接:AI 优化服务器的耗电将从 2025 年的 93 TWh 增至 2030 年的 432 TWh,占数据中心总耗电的比重从 21% 升到 44%。

这组数字说明,电不再只是数据中心的背景条件,而正在进入 AI 服务的成本表。

训练决定模型上限,推理决定模型能不能卖出去、卖得起量、卖得持久;而电力,正成为推理业务里最容易被规模放大的差异项。