算力即权力:AI云厂商的好日子才刚开始
Site Owner
发布于 2026-04-28
算力即权力:AI云厂商的好日子才刚开始 你以为是AI在赚钱? 不。是电在赚钱。 2026年,OpenAI的年收入据说奔着50亿去了。微软Azure AI收入增长三位数。Anthropic ARR据说过了30亿美元。数字很吓人,但仔细一看——钱从哪来的? OpenAI自己烧掉的GPU,比赚回来的多得多。 这个故事的核心,不是模型能力,不是用户增长,是一张一百五十年前就写好的剧本:新兴基础设施确立控制...

算力即权力:AI云厂商的好日子才刚开始
你以为是AI在赚钱?
不。是电在赚钱。
2026年,OpenAI的年收入据说奔着50亿去了。微软Azure AI收入增长三位数。Anthropic ARR据说过了30亿美元。数字很吓人,但仔细一看——钱从哪来的?
OpenAI自己烧掉的GPU,比赚回来的多得多。
这个故事的核心,不是模型能力,不是用户增长,是一张一百五十年前就写好的剧本:新兴基础设施确立控制权的那一刻,利润就开始往上游集中了。
电力时代的剧本,AI时代再演一次
1880年代,爱迪生点亮了纽约曼哈顿的珍珠街。人类第一次有了商业化的电力照明。
但真正赚大钱的,不是爱迪生的灯泡。是通用电气?是西屋电气?
都不是。是挖煤的和建电厂的。
灯泡是1880年代最性感的科技产品。GE和西屋争相宣传"电力革命",但两家公司真正稳定的现金流,是工业用户的大宗供电合同。巴布科克·威尔科克斯造锅炉,卡内基买下整座铁矿的煤炭供应权——这些配套基础设施的玩家,比造灯泡的那批人活得久多了。
运河时代的利润在船东。铁路时代的利润在铁路公司。电力时代的利润在发电集团。
每一次基础设施革命,真正的大机会都在把"动力"卖给别人——而不是自己造终端产品。
模型厂商在卖镰刀,云厂商在卖电
今天的AI格局,微妙地重复了这个规律。
模型厂商(OpenAI、Anthropic、Google)像极了当年的灯泡制造商。它们做出了最炫的产品,负责定义"什么是AI",也是最容易上媒体头条的角色。
但它们的利润率?低得吓人。
推理成本随着用户量线性增长,GPU集群的资本支出是刚性的,模型越强需要的算力越多——这不是边际成本递减的SaaS生意,这是重资产的电网生意。
真正的利润,正在向算力供给侧集中。
AWS、Azure、Google Cloud,这三家加起来控制着全球超过65%的GPU算力出口。OpenAI是它们最大的客户之一——换句话说,OpenAI每赚1块钱,微软可能从GPU租赁里已经赚走了8毛。
这还没算CUDA生态的抽成、NVIDIA和云厂商之间的默契定价权,以及那张让后来者无比绝望的GPU供应网络。
壁垒不是模型,是"怎么把模型跑起来"
你今天说"我要做一个比ChatGPT更好的聊天机器人",需要什么?
200美元一个月的API Key?一个开源模型?一顿外卖的Prompt调试?
都不对。你需要GPU,而且需要很多GPU。
全球AI算力的需求方在爆发:模型训练需要H100,推理需要A100/H100,微调需要H800。英伟达Blackwell架构的B200一卡难求,交货周期已经排到2027年。
这不是买服务器的问题。这是抢电的问题。
一座标准数据中心的电力容量是有限资源。一个大型AI训练任务可以在两周内烧掉一座小型城市一年的用电量。电网接入、配电设施、散热系统——这些"不性感"的基础设施,才是真正的瓶颈。
贵州的电解铝厂为什么突然变成数据中心?因为那里有富余电力,有便宜的电价,有现成的散热基础设施。云厂商争夺的不是"贵州"这个地名,是贵州的电网剩余容量。
一个反直觉的结论
AI越强,模型厂商越危险。
因为AI越强,用的人越多,推理成本越高,对算力供给的依赖越重。而算力供给,集中在少数云厂商手里。
这意味着什么?
意味着AI时代最稳固的商业模式,不是"做AI",而是**"给做AI的人提供算力"**。
就像淘金热的时候,真正赚大钱的是卖铲子和牛仔裤,不是淘金的工人。
现在AI行业最热的是"应用层"——做AI写作、AI客服、AI编程的各种创业公司。但它们都是模型厂商和云厂商的"工人在淘金"。金矿挖得越热,铲子卖得越好。
但这不是全部
有人会说:那国内呢?阿里云、腾讯云、百度智能云,华为云——它们没有NVIDIA的顶级GPU可以用了,怎么办?
好问题。
答案已经开始显现:国产替代的算力网络 + 垂类场景优化的中间层。
不是每个AI任务都需要H100做推理。很多场景里,经过量化压缩的国产芯片配合蒸馏后的小模型,效果够用,成本低三分之二。
真正的机会,是在这个"算力受限"的窗口里,谁能把中间层——模型调度、负载均衡、成本优化——做到极致。
就像不是每家企业都需要自建发电厂,但每家企业都需要稳定的电。算力托管和算力调度,会是下一个十年的"电网"生意。
写在最后
我不是在说模型没有价值。
我是说,在这个时间点入局"做AI模型"或"做AI应用"的人,应该看清楚一件事:你是在别人的电网上建灯塔。
灯塔建得再漂亮,电网涨价你就得跟着涨价,电网限电你就得限产。
真正值得问的问题是——
谁是下一个通用电气?
谁能在算力这张网上,先卡住位置?
这个问题,值得每个AI从业者认真想一想。
(封面图:深蓝背景上,一道闪电劈开黑暗,照亮一座耸立的GPU芯片形状的发电塔)