01
美国弗吉尼亚州的数据中心巷,这个处理着全球70%互联网流量的心脏地带——价值数十亿美元、崭新的NVIDIA H100服务器集群,已经整齐地安装在机架上,却无法启动——它们静静地趴窝,等待着变电站的建设排期。
无独有偶,在硅谷的心脏、英伟达总部所在的圣克拉拉,两座新建的巨型数据中心拔地而起,也发现自己成了孤岛。因为当地电网已经饱和,它们可能需要空置数年才能通上电。
中国AI公司为买不到最先进的GPU而发愁,而一些美国同行——哪怕是微软、Meta这种级别的,却正对着仓库里堆积如山的顶级GPU头疼。这些显卡他们买得起,也买到了,但居然因为没电装不上去,或者装上去了也没法开机。
这事儿听起来简直像是段子,但它却是正在发生的现实。根据最近的行业报道,微软就公开确认,他们确实有一批GPU库存处于闲置状态,无法安装运行,核心原因就是数据中心的电力供应跟不上。
原本以为AI竞赛是比拼算法、比拼人才、比拼芯片的高科技战争,怎么打到下半场,变成了一场比拼烧开水、比拼拉电线的土木工程了?
很多人可能还没意识到这个问题的严重性。在AI这头吞金兽面前,人类现有的基础设施,尤其是以美国为代表的发达国家的基础设施,正在遭遇一场前所未有的撞击。
02
很多人对AI耗电这件事其实没什么概念。
咱们平时的直觉是这样的:AI嘛,不就是运行在电脑里的一串程序代码吗?虽然它聪明点,但跟我用Word写文档、用Excel做表格,或者打一局“黑神话:悟空”相比,能费多少电?顶多也就是电脑风扇转得快一点呗。
如果你这么想,那就把问题想简单了。现在的生成式AI,它根本不是传统的程序,它更像是一个用硅基材料堆出来的人造大脑。要理解它为啥耗电,咱们得先复习一点初中物理。
所谓的算力,在物理层面到底是什么?无论多么复杂的AI模型,拆解到最底层,其实就是无数个微小的晶体管在做开和关的动作。每一次开和关,代表着0和1的切换,这个过程必然伴随着电流的通过和电阻的发热。
物理学里有个著名的兰道尔原理,简单说就是:任何信息的处理和擦除,本质上都是能量转换的过程。你让AI思考,就是让它在微观层面进行天文数字级别的开关运动,这必须得烧电,而且会产生巨大的废热。
现在的AI模型有多夸张呢?
先说训练这个环节。训练一个像GPT-4这样的大模型,你可以理解为把一个什么都不懂的婴儿,关进图书馆,让他把人类几千年的书全部背下来,还得融会贯通。
为了做到这一点,AI模型里有上万亿个参数。训练的过程,就是通过数万万亿次的计算,去反复调整这一万亿个连接点的权重,让它们达到最佳状态。这个过程消耗的能量是惊人的。有数据显示,GPT-4的一次训练,消耗的电量高达2.4亿度。
2.4亿度电是什么概念?一个普通的中国三口之家,一年大概用电2000-3000度。这一次训练,就相当于烧掉了一个十万人口的小县城一整年的生活用电。
但这还只是首付,真正的耗电大头在后面——推理。
所谓推理,就是训练好了之后,你拿它来用。你问ChatGPT一个问题,它给你生成一段回答,这就是一次推理。训练是一次性的,但推理是7x24小时不间断的。
你想想,全球有多少人在用AI?每一秒钟都有无数个请求发给服务器。每一次请求,后台的GPU都要火力全开地运转一遍。根据估算,在推理阶段,GPU的计算能耗虽然占比会有所下降,但冷却和辅助设备的能耗比例反而会上升。
这就引出了另一个被忽视的吃电怪兽——散热。
你在家里玩游戏,显卡热了风扇会响。在数据中心里,成千上万块像砖头一样厚重的高端显卡挤在一起全速运转,那个热量是毁灭性的。如果散热系统停摆,几分钟内这些昂贵的芯片就会烧毁。
所以,数据中心必须配备巨大的冷却系统——也就是超大号的空调或者液冷设备。在训练阶段,大概只有70%-80%的电是真正用在计算上的,剩下的10%-15%全用来给芯片洗澡降温了,还有10%-20%耗在了各种辅助设施上。
总结一下:AI电老虎 = 训练(一次性巨额投入)+ 推理(永久性海量消耗)+ 冷却(高额附加税)
这就是为什么现在的AI数据中心,哪怕只是新建一个,总功率都动辄接近百兆瓦。这哪里是机房,这分明就是一座座伪装成写字楼的炼钢厂。
当这种炼钢厂式的需求指数级爆发时,撞上美国那套年久失修的电网系统,出问题几乎是必然的。那么,美国的电网到底烂在哪里?
03
按理说,美国作为老牌工业国,电力底子应该很厚才对。这事儿如果搁在几十年前,确实不是问题。但现在的美国电网,正面临着多年老化的压力。
美国的电网系统起步早,这原本是优势,现在却成了劣势。很多输电线路和变压器都是上世纪五六十年代建的,甚至还有二战前的古董在服役。
这就像是一个老旧小区的自来水管网,当初设计的时候,只是为了让你刷牙洗脸。现在好了,你突然在小区里盖了一座用水量巨大的化工厂,然后指望那根锈迹斑斑的细水管能供得上水?那结果只能是水管爆裂,或者根本流不出水。
AI数据中心是典型的高功率、高负载用户,它需要的不是普通的电,而是高压专线接入。但美国目前的电网升级极其缓慢,完全跟不上AI扩张的节奏。这就是为什么硅谷那边很多数据中心建好了,变电站却告诉你要排队等几年的原因——电网扩容的速度,被AI需求甩开了好几个身位。
这可能是美国特色的体制病了。在美国,你想建一个数据中心,只要有钱,找块地,买设备,大概1-2年就能建成。但是,你要想给这个数据中心拉一根跨州的高压输电线?那简直是地狱难度。
为什么?因为你要经过联邦、州、县、市各级政府的层层审批,还要面对沿途无数环保组织、社区居民的听证会和诉讼。
美国人有个词叫NIMBY,别建在我家后院。大家都喜欢用AI,都喜欢清洁能源,但谁也不希望自家门口竖着巨大的高压线塔,或者建一座变电站。
这就导致了一个尴尬的时间错位:AI技术是按周迭代的,数据中心是按年建设的,而美国的电网基础设施建设,是按十年起步的。这种时间维度上的错配,直接把科技巨头们搞崩溃了。
众所周知,加州这帮科技巨头,微软、谷歌、苹果,平时最讲究政治正确,口号喊得最响的就是碳中和和100%清洁能源。为了环保,美国很多地方关停了稳定的燃煤电厂,大力发展风能和太阳能。但这玩意儿有个致命弱点——靠天吃饭。风停了、太阳下山了,电就没了。
可AI不行啊。我们前面说了,AI数据中心是7x24小时连轴转的,它需要的是极其稳定、一秒钟都不能断的基荷电力。
这里就出现了一个巨大的矛盾:电网里不稳定的绿电比例越来越高,导致电网的抗压能力越来越差;而接入电网的AI巨兽,偏偏又是对稳定性要求最高的客户。这种供需属性上的八字不合,让局部电网经常处于过载的边缘。
说白了,需求端的指数级爆发,正面撞上了供给端那如同蜗牛般爬行的基础设施,再加上环保和审批这两道紧箍咒,最终酿成了这场让硅谷精英们束手无策的电荒。
被逼急了的AI巨头们,也不得不开始自救了。
04
在商界有一条铁律:当一项业务的利润足够高,资本就会不惜一切代价去击穿所有的物理障碍。既然指望不上老旧的电网,也等不起漫长的政府审批,巨头们干脆心一横:求人不如求己,我自己搞电还不行吗?
这就带来了这场AI竞赛中最魔幻的一幕——为了搞定最前沿的AI,科技巨头们正在悄悄复活旧能源。
最典型的案例就是微软。前段时间有报道披露,为了解决电力瓶颈,微软等科技巨头已经开始在那边自建燃气发电厂了。你没听错,就是烧天然气的火电厂。
这事儿要是细品,简直充满了黑色幽默。这些科技公司,以前在发布会上PPT做得最漂亮,满嘴都是2030年实现碳负排放、100%绿色能源。结果真到了抢算力的节骨眼上,身体却很诚实。
为了让那一排排GPU亮起来,什么碳排放,什么环保承诺,先往后稍一稍,把火电厂建起来再说。这其实就是一种向现实低头的无奈:在活下去和抢占市场面前,情怀是不值钱的。
当然,烧气只是权宜之计,有些AI公司看得更远。比如OpenAI的掌门人山姆·奥特曼,他心里很清楚,靠风能和太阳能这种看天吃饭的能源,根本喂不饱未来的通用人工智能。所以,他在搞AI的同时,把大量的钱砸向了核能。
他不仅投资了核聚变公司,还在推动像Oklo这样的微型核裂变电站项目。现在的趋势很明显,电力公司甚至开始尝试利用AI来加速核电站的建设审批和设计。现在硅谷的共识基本可以认为是:AI的终极能源解决方案,大概率是核能。
除了自建电厂,巨头们的第二招是逐水草而居。
既然硅谷和东海岸的数据中心因为电网接入延迟而不得不闲置,既然在那边排队要排到好几年后,那我就搬家。
现在的AI算力基础设施,正在上演一场大逃离。它们正在逃离寸土寸金、电网拥堵的加州和弗吉尼亚北部,疯狂涌向美国的内陆——比如俄亥俄州、威斯康星州,甚至亚特兰大。
为什么去这些地方?因为那里是美国的铁锈地带或者传统工业区,虽然不时髦,但那里有老牌的工业底子,有相对充裕的电力配额,甚至有现成的核电站。
这其实正在重塑美国的经济版图。以前,高科技公司跟着人才走,哪里程序员多去哪里;现在,AI数据中心跟着电走,哪里电费便宜、哪里能马上通电,就去哪里。
最后一招,自然是倒逼政府。科技巨头们正在华盛顿疯狂游说,试图推动国会和白宫加速电网升级的审批,利用联邦资金来修补破碎的基础设施。
虽然政府也出台了一些政策,试图加强电网和AI的协同,但在美国那个复杂的利益博弈体系下,想让大象跳舞,短时间内恐怕很难看到立竿见影的效果。
所以看来看去,美国的这场电荒,短期内大概率是无解的。这不仅仅是缺钱的问题,这是体制效率和物理基建的双重瓶颈。
既然美国这边愁云惨淡,那很多人肯定会好奇:咱们中国呢?我们在AI算力和电力这场博弈中,现在到底是个什么段位?
05
说实话,中国的情况完全不同。如果说美国是在为有锅没米发愁,那咱们面临的则是另一套截然不同的逻辑。
首先得承认,在搞基建,特别是电力基建这块,中国确实有着独特的优势。咱们国家在电力上的家底是很厚的。不管是总装机容量还是发电量,中国都是全球第一。
更重要的是,咱们有一张全球最先进、最年轻的电网。相比于美国那些还在服役的二战前老古董设备,中国近些年大规模建设的特高压输电网络,就像是一条条电力高速公路,调度能力极强。
所以,单纯从能不能供上电这个维度看,中国目前并不存在美国那种有电送不到的系统性危机。但这还不是最关键的。最体现中国式智慧的,其实是一个很多人都没听过的战略——东数西算。
在美国,数据中心的建设逻辑是市场导向的无序扩张。硅谷人多、钱多,大家就一股脑往硅谷挤,结果把当地电网挤爆了。
这方面,中国在AI大爆发之前预判到了算力和能源的矛盾,提前做了规划。简单说,就是把东部(像上海、深圳、杭州)那些需要大量消耗算力的任务,通过光缆扔到西部去处理。
为什么要扔到西部?因为那里有两样东西最不缺:一是绿电,二是冷风。
你去看看中国的西部,像青海、内蒙、贵州这些地方,有着极其丰富的风能、太阳能和水电资源。与其费劲把这些电千里迢迢输送到东部给数据中心用,不如直接把数据中心建在发电站旁边。这不仅解决了能源消纳问题,还顺手把碳排放的问题给解了。
特别是青藏高原周边区域,还有一个绝佳的物理优势——天然空调。
前面咱们说了,AI数据中心有接近一半的电是用来散热的。而在青海这种高海拔地区,年平均气温低,空气干燥洁净。把服务器放在这儿,甚至不需要开压缩机空调,直接引入室外的自然风冷却,能源利用效率能做到极低,光冷却能耗这一项,就能比平原地区降低约40%。
这就像是给数据中心找了一个天然的避暑山庄。所以,当美国巨头们还在为了这一度电是烧煤还是烧气而争吵时,中国的算力网络正在尝试用西部的风和光,去点亮东部的AI模型。
也许有人会敏锐地发现一个漏洞:既然美国那边的绿电因为“靠天吃饭”导致电网不稳,那咱们西部的风能和太阳能难道就不受物理规律限制了?青海的太阳难道晚上不落山?
这就得提到中国手里握着的另一张王牌了——大规模储能,俗称“超级充电宝”。
这方面,中国又是全球独一档的存在。作为世界最大的锂电池生产国和最大的抽水蓄能建设国,我们在西部搞的不仅仅是发电厂,而是“风光储一体化”。
简单说,就是在大漠戈壁上建起无数个巨型电池组或者抽水蓄能电站。白天光照强、半夜风大电发不完的时候,把电存进去;等风停了、阴天了,再把电稳稳地放出来。这一点,美国虽然技术也没问题,但受限于制造产业链和成本,很难像我们这样在荒漠里“饱和式”地铺开。
但是,切记不要盲目乐观。虽然我们在能源和基建上拿了一手好牌,但我们手里也有自己的烂牌。
这场竞赛在中美之间形成了一个有趣的镜像对比:美国AI巨头的痛点在电网,他们手里握着最先进的显卡(万卡俱备),但被老旧的电网和缓慢的基建拖了后腿(只欠东电)。
中国的痛点在芯,我们有充沛的电力,有强大的基建,甚至连散热的冷风都准备好了(电力充沛),但我们被卡在了最核心的算力引擎——高端GPU上。
由于地缘政治的原因,中国公司现在很难买到最顶级的AI芯片。这就意味着,虽然我们的电管够,但我们将电能转化为智能的效率可能不如别人。用同样的电,别人算得比你快、比你准,这就是我们在下半场必须面对的严峻挑战。
所以,这不是简单的谁赢谁输,而是双方都在自己的短板上玩命补课。美国在疯狂补基建,中国在疯狂补芯片。
06
写到这里,得做个总结了。
很多人可能觉得,人工智能是一场属于程序员、算法天才和数学家的狂欢。我们以为它是轻盈的,是漂浮在云端的代码,是虚拟世界的纯粹逻辑。但在这个物质世界里,没有任何一种智慧是可以脱离物理实体而存在的。
不管那个大模型有多聪明,不管它能通过多少次图灵测试,它依然要遵循最底层的物理铁律:要思考,就得消耗能量;要快,就得发热。
这场AI革命,既是代码层面的竞赛,也是重资产基建的竞赛。谁能以最低的成本、最稳定的供应、最环保的方式,为这头吞金兽提供源源不断的能量,谁才能待在牌桌上。
从这个角度看,美国在补课,补它那落下半个世纪的基建课;中国也在补课,补我们在高端制造上缺失的那一环。
全文完,感谢耐心阅读。感觉有价值请转发或点个在看吧~
参考文献
[1] Fitch, Asa. AI Data Centers Desperate for Electricity Are Building Their Own Power Plants. The Wall Street Journal, 2025.[2] Swearingen, Jake. Microsoft has AI GPUs sitting in inventory because it lacks the power necessary to install them. Datacenter Dynamics, 2025.[3] Bradsher, Keith. China’s Quest for Clean Energy Leads to the High Mountains. The New York Times, 2025.[4] 澎湃新闻. 《训练AI为何如此耗电?揭秘大模型背后的“能源账单”》. 澎湃科技, 2024.[5] 中华人民共和国中央人民政府. 《全国一体化大数据中心协同创新体系算力枢纽实施方案》. 中国政府网, 2024.
954