Kaiyun官方|中国大陆电力科技负荷预测与电价预测平台登录入口

行业新闻
当前位置: 首页 > 行业动态 > 行业新闻

AI竞赛终局:电力说了算?

类别:行业新闻 日期:2026-02-13 08:04:57
我要分享

  

AI竞赛终局:电力说了算?(图1)

  Blackwell 架构及后续更高功率算力集群的全面部署,数据中心的能耗密度呈指数级跃升。据高盛预测,到2027年,AI服务器单个机架的功率密度将是五年前普通云服务器的 50倍。

  这种指数级的功耗飞跃,正迎头撞上一道由水泥、钢铁和老化铜线构成的“北美硬墙”:

  墙的一侧是每秒万亿次的浮点运算渴求;另一侧,则是平均电网年龄超 40 年、变压器短缺率高达 30%、扩建周期长达 5-10 年的基建泥潭。

  本篇重点探讨第一个问题,重点理解一个高度成熟的国家,如何混到无电可用的。

  2025 年底,美国最大区域电网 PJM 的容量拍卖价格从 $28.92/MW-day 暴涨至 $269.92/MW-day。这9倍的跳涨,标志着市场定价已从“风险溢价”转向“生存恐慌”。

  燃气轮机订单的爆发式增长、卡特彼勒与三菱重工的激进扩产,本质上是科技巨头在“弃网自保”,试图用自备电源绕过瘫痪的公共电网。

  微软 CEO 纳德拉直言:“供电能力是当前最大的瓶颈,甚至超过芯片。” 黄仁勋更定论:“电力的可用性而非 GPU,将决定 AI 的扩展规模和速度。” 至此,AI 竞赛的胜负手正式从芯片转移到了发电厂。

  面对能源缺口对国家竞争力的威胁,美国联邦政府在 2025 年开启了史无前例的“战备模式”:

  4月强制电网动用一切可用能源,“减碳理想”阶段性让位于“算力生存”,煤电与气电被重新推向一线月能源部(DOE)启动“电力加速计划”,以行政力量缩短大型电网项目审批周期。

  站在 2026 年的节点,AI变革已扩散到传统行业,演变为一场涉及能源上游、电力装备、电网柔性改造的全产业链重构。接下来,我们就重点看一下用电的需求端到底发生了怎样的变化。

  受益于战后经济繁荣、重工业化扩张以及居民电气化普及(如空调家电),美国用电负荷维持高位增长(CAGR增速6%)。

  受互联网泡沫破裂、2008 年金融危机影响,经济增速换挡,叠加产业结构转型(重制造向轻服务转型)与节能技术应用,全社会用电量 15 年间仅区间震荡,几无增长;

  美国电力需求迎来历史性拐点。政策端,拜登政府《IRA 法案》《芯片法案》巨额补贴与特朗普制造业回流政策形成合力,“再工业化” 战略强力驱动制造业回流;产业端,AI 数据中心爆发式建设带来巨大新增能耗。两者共振下,美国用电重回增长通道,2021-2024 年平均增速回升至 1.5% 左右,电价从 2022 年起加速上涨。

  商业用电是用电结构增长的核心引擎,其中数据中心是绝对主力。截至2024年底,美国数据中心负荷已达约 35GW,较2020年实现翻番。

  工业用电也在同步复苏,半导体晶圆厂、动力电池工厂等高端制造业回流,提供了坚实的底部支撑。

  根据NERC数据显示,美国电网峰值负荷(用电负荷*用电时间=用电量),自2006年见顶后长期停滞,导致电网侧的扩容性资本开支长期缓慢(2024年才首次突破300亿美元),北美电网老化严重,平均服役时间已经接近40年。

  一旦需求端“峰值负荷”的增速超过供给端“有效容量”的建设速度,“容量性缺口”将不可避免,从而引爆北美缺电危机,带来电价中枢上行及大规模停电风险。

  我们可以通过“自下而上”的模型拆解AI带来的新增峰值负荷及核心驱动因素:

  a. 数据中心新增接入容量(GW) = GPU出货量 × 单芯片TDP × 系统功耗系数 × PUE

  系统功耗系数: 代表除核心GPU外,维持服务器运行所必需的组件能耗(CPU/内存/网络/电源损耗等),通常取值 1.3-1.5。

  PUE(电能利用效率): 即“数据中心总能耗 / IT设备能耗”的比值。它代表了用于“环境维持”(制冷、配电、照明等)的额外电力成本,是衡量数据中心能效的核心指标;

  峰值需量系数用于衡量数据中心在实际运行中对电网容量的真实占用率(即:实际最大负荷 / 设备额定总功率)

  全球数据中心正经历由生成式AI驱动的历史性扩张周期:从建设主体看,全球数据中心扩产的绝对主力是北美云计算巨头(CSP)。

  以亚马逊、微软、谷歌、Meta为代表的北美四大CSP,其资本开支自2023H2起进入“军备竞赛”模式。四家厂商的总CapEx已从2023年的约1500亿美元,飙升至2025年预计的 4060亿美元(CAGR超60%)。

  在两大阵营共振下,全球前11大科技巨头的合计资本开支将从2023年的1800亿美元,加速增长至2025年的 近5000亿美元。这种“军备竞赛”直接带动了上游AI芯片的出货量及数据中心规模的持续爆发。

  英伟达GPU的单芯片TDP已从H100时代的700W,跃升至Blackwell架构(GB200/GB300)的 1200W-1400W 量级。而市场预期下一代 Rubin 架构及其配套的超级芯片平台,功耗将进一步突破 2000W+,对供电与散热能力都提出了极致要求。

  AI大模型的训练和推理需求推动单个数据中心的部署规模正在从“千卡级”迈向“十万卡级”跨越。例如,OpenAI与Oracle规划在德州建设的“Stargate”项目,预计将部署超45万颗GB200芯片,其总用电负荷或将突破 1.2GW(相当于一个中型城市的用电量),这对能源侧和电网侧都形成了巨大的挑战。

  据 Grid Strategies 统计,预计到2026年将有10个GW级数据中心投入运营;而在2030年及之前规划建成的数据中心里,约50%都将达到GW级规模。

  业务以云计算、数据存储和网络服务为主,具有明显的“潮汐效应”(白天忙、晚上闲)。服务商通过虚拟化技术与超卖策略,实现多租户间的“错峰复用”。这使得总体负荷曲线相对平缓,峰值负荷率通常控制在 60%以下,为电网侧预留了充足的调节与缓冲空间。

  随着AI训练需求的爆发,数据中心正转变为电网中必须优先保障的“刚性工业负荷”:

  AI训练集群追求极致并行效率,一旦启动便持续数周甚至数月近满载运行(峰值负荷率90%),呈现一条高位直线。

  由于GPU任务的高度同步性,当集群从“计算”切换到“通信”或从“空闲”进入“满载”时,会在微秒/毫秒级时间窗口内产生剧烈的功率跳变。NERC显示,某大型数据中心负荷曾在36秒内由450MW骤降至7MW(相当于瞬间切断了一个中型发电厂)。这种极高的电流变化率如同一把 “电力重锤”,高频次冲击本来就老旧的美国电网。

  根据UBS数据,截至2025年底,全球数据中心投运容量为105 GW, 同时有25GW的在建容量,以及超过100GW处于规划阶段。

  在没有电力,土地等外部瓶颈约束情况下,一个AI数据中心从规划、土建到IT设备部署完成的完整建设周期通常在18-24个月左右。而新云如Coreweave则通过更快能拿到英伟达GPU,及模块化预制化建设方式能将建设周期缩短到12-18个月内。

  假设上述125GW储备容量在2030年前全部投入运营,且不再有新增规划的容量,

  参考黄仁勋口径,1GW数据中心容量建设成本约500-600亿美元(含芯片系统约350亿美元),海豚君取中值 550亿美元/GW(当数据中心全为英伟达芯片)。

  但随着Google TPU等自研芯片在推理和特定训练场景的渗透,成本将显著下降。TPU V7不仅单位算力TCO比GB300便宜41%,其在能耗和散热上的优势使其Capex有望缩减至GPU方案的一半(约275亿美元/GW)。

  如果按照未来5年数据中心平均“65% GPU + 35% TPU”的混合架构计算,单GW的加权建设成本将降至454亿美元。而如果按照未来5年数据中心80-120GW的新增容量假设,年均AI的投入将达到7000-1万亿美元。

  若AI数据中心相关支出占比达到80%-90%,这意味着26-30年间CSP年均总资本开支将达到9000亿-1.2万亿美元(2026年约6500-7000亿美元),基本符合目前产业链维持高斜率的增长预期(26-30年5年CAGR约25%)。

  美国联邦能源监管委员会(FERC)要求所有电力公用事业公司每年提交申报材料,以此监控各规划区域的发电能力,电力交换量,峰值负荷预测,这是全美电网规划最底层的“账本”。

  北美电力公用公司大幅上调了未来5年的峰值负荷预期,规划总增量高达 166 GW。在这波电力“超级周期”中,数据中心是绝对的主导力量:

  b. 其次是工业/制造业回流(新增30 GW),以及终端电气化(新增约30GW,主要由住宅电气化-如供暖热泵,及电动汽车设施等领域驱动)

  但海豚君需要提示的是,我们的“乐观情形”在科技巨头的宏大蓝图面前可能仍显保守。以 OpenAI 为例,其 2033 年算力基础设施规划高达 250 GW,这意味着AI能耗的天花板可能远未浮现。

  尽管 FERC 预测由终端电气化和制造业回流驱动的新增负荷高达 76GW,但考虑到美国电动车普及率放缓及制造业回流实际落地的复杂性,海豚君预测未来5年基础负荷增量为 25GW / 40GW / 60GW(对应CAGR 0.6%-1.5%)。

  总峰值增量:叠加上述两项驱动,海豚君给予北美市场未来 5 年总新增峰值负荷在悲观/中性/乐观假设下分别为 105GW / 140GW / 180GW 的预期(对应CAGR 2.4%/3.2%/4%)。

  过去十年(2014-2024),美国电力系统在总量微增(CAGR增速仅1.2%)的表象下,发生了发电结构端的剧变,为当前的缺电危机埋下了供给侧的病根:

  过去很长时间,受环保政策及天然气成本优势双重挤压,煤电加速退役,装机量近乎腰斩(从2011年的318GW锐减至2024年的174GW),在发电端占比也从30%萎缩至14%,削弱了系统的基础保障能力。

  凭借美国页岩气革命带来的成本优势,调度灵活性,相比煤电较好的清洁性,天然气发电装机稳步增长,占比也长期稳定在40%以上,成为了主力电源。

  528 GW(占比超50%)的优质基荷电源(火、水、核)服役已超 30 年,导致美国自 2010 年即进入火电退役高峰。更为严峻的是,根据EIA预测,2020-2030 年,每一年基荷机组的退役量均大于其新增量,这意味着,在AI需求爆发前夕,系统的“可靠容量”已在持续净流失。

  而填补煤电空缺的,并非同为高可靠的基荷能源,而是以风电、光伏为主的间歇性能源。

  2011-2024年间,两者装机从不足 50 GW 激增逾 5.5 倍至 329 GW,贡献了同期 121% 的装机净增量,实现了在发电量上对煤电的电量替代。

  然而,这种“替代”只是“电量”替代,而非“容量”替代,即在天气晴好时产生大量廉价电力,不意味着在电网最需要的峰值时刻,无法产生有效电力。

  在电网规划中,风光的有效容量系数极低——光伏仅10-20%,风电30-40%,而煤电/气电/核电等基荷能源普遍为80-90%,这是由风光的间歇性和波动性所导致,其可靠性贡献远不及稳定的基荷电源。

  风光电厂装机在同一区域越多,其有效容量系数(ELCC)反呈“边际递减”,新增装机对系统顶峰负荷的保障能力会越来越弱。

  AI数据中心代表的是高密度、高负载率的刚性负荷,要求24/7的稳定供电。而新增电源主体(风光)却是间歇、波动、不可控的,且受限于美国脆弱的跨区电网互联,中西部丰富的风电无法实时输送到东海岸的AI集群,这种“空间错位”进一步加剧了局部地区的供需断裂。

  海豚君预计未来5年间(2026-30E)新增电力装机容量为337GW 。其中,光伏和风电等间歇性电源贡献了超过76%的增量(约257GW),而具备稳定、可调度能力的天然气发电新增量仅为80GW(占比约24%)。

  然而,同期计划退役的机组高达92GW,且几乎全部为高可靠性基荷电源(煤电约76GW,气电约13GW)。这意味着,在净新增的245GW装机中,稳定电源的净贡献微乎其微,系统在持续“失血”。

  且由于不同电源在电网顶峰时刻的可靠出力(有效容量)贡献差异巨大。海豚君对上述净增245GW装机按有效容量系数折算(煤/气/核/水/风/光分别取90%/90%/95%/80%/40%/10%),

  风光装机的名义容量高速增长,创造了“绿色转型”的表象,但其极低且递减的有效容量,无法填补传统基荷退役留下的 “可靠性窟窿”,更无法支撑AI驱动的顶峰负荷爆炸式增长。

  美国缺电危机并非单纯发电侧问题,输电侧同样面临严峻挑战:电网基础设施的老化,无法承受AI数据中心“用电巨兽“的冲击:

  美国电网建设时间较早,电网结构在20 世纪中期已经基本成型,而据美国能源部(DOE)统计,美国70%输电线路以及电力变压器运行年限在35 年以上,约30%的核心资产(含断路器等)已突破设计寿命,系统可靠性本身已经大幅度减弱。

  由于美国用电量在2000年后增长缓慢,而本土电力设备制造产业空心化(变压器等关键部件高度依靠进口,且面临关键技工短缺问题),美国电网所有权分散(以私营企业为主),导致美国对于电网投资长期位置较低水平(过去10年年均约200亿-300亿美元,2024年才突破300亿美元)。

  且投资方向也偏向投资主要流向 “老化基础设施更换” 和 “巩固电网可靠性”,由 “负荷增长” 驱动的扩容性投资占比极低。

  2013年后美国新增高压输电线路年里程已经大幅缩减,2024 年仅新增888 英里345KV 及以上的高压输电线路,不足美国能源部(DOE)年均规划需求5000英里的20%。

  电力变压器由于其高度定制化(每台变压器都需考虑独特的阻抗、冷却、分接开关、过载、抗震标准)、劳动密集型制造以及严苛的认证周期,无法通过标准化流水线快速扩产。

  在美国,本土供应商目前仅能满足约 30% 的需求,即便包含已宣布的扩产计划,到 2027 年(预测)也仅能满足约 40%,这导致2025 年欧盟 / 美国电力变压器短缺率约 30%,

  当单个动辄数十万、上百万千瓦(GW级)的AI数据中心提出并网申请时,巨大的瞬时功率需求已超出区域电网的物理承载极限:

  同时,AI算力负载在毫秒间的剧烈跳变会对老旧电网产生高频干扰,威胁区域供电安全。

  AI数据中心的理论建设之间只需要18-24各月,然而配套的输电网扩容及跨区域线路建设,受限于许可审批、环境评估及长周期设备(如变压器)的交付,往往需要 5-7 年甚至更久。

  尽管联邦能源监管委员会(FERC)通过 2023 号命令简化了行政审批(理论仅1-2年),但“物理扩容不足”导致的并网队列拥堵愈演愈烈。目前全美并网排队的中位数已接近 5 年,在北弗吉尼亚州(VA)等数据中心核心区,接入等待时间甚至飙升至 7 年。

  这种错配对于数据中心运营商是毁灭性打击,意味着即使数据中心一年半载建好,其数亿美元采购的GPU芯片将因无电可用而

  ,高昂的沉没成本(折旧)将直接侵蚀企业利润,导致 AI 投资的 ROI模型直接崩溃。

  从上分析可以看出,美国当前的电力短缺绝非短期供需失衡,而是 AI 算力爆发与能源、电网基建长期滞后形成的结构性矛盾。

  需求端,制造业回流与 AI 数据中心刚性负荷的双重驱动,使电力需求进入加速增长通道,峰值负荷压力陡增;

  供给端,传统高可靠基荷电源持续退役,风光能源 “电量替代” 难以填补 “容量缺口”,有效供电能力不足;电网侧,设施老化、投资缺位、关键设备短缺与建设周期错配,进一步放大了供需矛盾。

  而下篇中,海豚君将继续探讨美国缺电问题如何解决,以及对应的细分赛道的投资机会,敬请期待!