有一种 " 热度 ",普通人可能永远感受不到,但每一次使用 AI 都在为它添一把火。
当人们用 AI 快速生成一份 PPT 时,当医生用影像大模型识别 CT 片上的可疑阴影时,当气象员借助气象大模型推演台风未来 72 小时移动路径时…… AI 看似轻巧地改变着世界,背后则是数据中心里数以万计的 AI 芯片正在近乎疯狂地计算,但算力越强,功耗就越惊人,功耗越大,传统的供电和散热体系就越接近极限。
这一矛盾正在倒逼数据中心发生根本性变革:算力、电力和冷开始从过去简单 " 依赖 ",全面转向深度耦合," 算电协同 " 与 " 电冷协同 " 将成为系统性重构数据中心的核心逻辑。这揭示了一个根本性的转变:供电与热管理已不再是算力的附属配套,而正在成为定义 AI 基础设施上限的核心竞争力。
01
算力狂飙的背后:数据中心结构性变革
据全球咨询公司 Gartner 预测,2026 年全球数据中心支出将达到 6500 亿美元,同比增长 31.7%;在 AI 需求的驱动下,AI 服务器支出将保持高速增长,数据中心功耗预计在四年内翻倍。国际能源署数据也预测,到 2026 年底,全球数据中心总用电量预计将达到 1050 Twh,相当于德国全年用电量的总和。
这些数据都指向一个清晰的结论:算力狂飙带来的不仅是用电量和功耗的极速攀升,更让传统数据中心出现结构性变化,加速向 AIDC(智算中心)演进。
对此,施耐德电气关键电源业务产品负责人梁超指出,其演进的本质可以归纳为 " 三重范式变革 ":首先是技术范式,服务器功率密度的剧增从根本上改写了供配电与制冷架构;其次是建设范式,市场对快速、标准化部署的极致需求正在重写交付与运维模式;然后是商业范式,客户采购需求已从单一元器件转向集成化解决方案。
变化一:AI 芯片掀起 " 密度革命 ",功耗曲线陡峭上行
AI 芯片正在数据中心内部掀起一场 " 密度革命 ",为追求极致性能,芯片功耗呈现出指数级增长。以英伟达 Blackwell 架构的 GPU 为例,其单颗 GPU 功耗相比几年前提升四倍之多,导致最新的 Blackwell(B200)服务器机架功耗高达 120kW。而根据英伟达的技术路线图,计划于 2027 年下半年推出的 Rubin Ultra 平台,其单机架功耗将达到惊人的 600kW。

事实上,无论是 GPU,还是云服务商自研的 ASIC,所有芯片均朝着高密计算趋势发展。施耐德电气在第四届 CDCC 液冷技术大会上展示的数据更为直观:从 Blackwell 的 150kW 到 Vera Rubin 的 250~360kW,单机柜功率密度的跃升正以超乎想象的速度推进,风冷与液冷的分水岭大致落在 50~70kW 这一区间。梁超表示:" 这不是简单地功率放大,而是一场系统性重构。" 从通算到智算,最大变化就是服务器功率都在发生变化,所有配电架构及制冷方式都将进行核心变革。这意味着,从供电系统、散热架构到空间布局都必须全面重塑。
变化二:供电架构重构,高压直流时代加速到来
AI 芯片对于电力的庞大需求,正让数据中心成为 " 电力黑洞 ",直接驱动着数据中心供电架构的变革——从传统 48V 交流配电,开启高压直流(High Voltage DC)供电架构时代。
传统 48V 交流配电链路长、损耗大,需要经过多级变压整流才能最终转化为服务器所需的直流电。随着机柜功率密度的持续攀升,这种模式不仅效率低下,而且布线和运维困难。高压直流配电架构的优势在于大幅减少服务器机架内铜线的使用,并且简化 UPS,还能将电源移出服务器,优化服务器机架空间。
传统 400V 交流配电的效率与响应速度已无法满足高密度场景,800V 直流电源正成为必然趋势。全球著名的数据中心项目 OCP(Open Compute Project,开放计算项目)已经提出 400V 直流配电方案。供电架构的升级本质上就是一场 " 电压革命 "。每一次电压等级的跃升都试图回答:如何在有限的空间和铜资源内为 AI 芯片高效输送电力。而对此问题的答案将直接决定 AIDC 的功率密度天花板。
变化三:建设逻辑演变,从 " 产品 " 转向 " 系统 "
随着数据中心向智算中心演进,其建设和改造的逻辑也正发生根本性变化。传统部署一个兆瓦级的通算数据中心通常需要 18-24 个月,而 AI 时代要求 6-12 个月快速交付。如今在东南亚和中东的 AIDC 项目中,部署时间已压缩至 3 个月的节奏。传统数据中心的建设与交付过程冗长、效率低下,竞争聚焦在单一组件性能。而未来的 AIDC 需要快速部署与扩建,从芯片、机架、集群到配电、制冷等会走向 " 量体裁衣 " 的定制化和灵活构建的模块化,以实现快速交付与部署,并且深度适配数据中心需求。
这不仅是一场技术架构的变革,更是一场商业范式的转变。梁超强调,如今用户更倾向于采用集成化的形式,以整体打包解决方案进行采购。从单一部件到整体方案,既是施耐德电气面临的巨大挑战,也是从单一产品供应商向系统能力供应商进化的核心体现。AIDC 的建设将像搭乐高一样,用标准化模块组装出一个可弹性扩展的 AI 工厂。这种转变既是应对算力需求不确定性的必然选择,也是降低初始投资风险的有效手段。
以上三大变化均指向同一个方向:AIDC 时代,供电体系与热管理体系不再是算力的附属配套,而是与算力同等关键的核心能力。在未来的 AIDC 中,算力如同 " 大脑 ",供电系统则像 " 血管 ",而热管理就是 " 循环系统 ",只有算、电、冷深度协同,才能打开 AIDC 未来发展的 " 天花板 "。
02
电冷协同,让算力充分发挥价值
如果说算电协同的价值是打破算力与电力之间的壁垒,实现 " 算随电动、电随算调 " 的匹配;那么,电冷协同则让智算中心进一步形成 " 能源 - 算力 - 热管理 " 三位一体的新范式,真正实现电力调度、算力调度、冷却策略深度耦合,驱动数据中心各项指标与效率走向最优化。
(1)冷却侧:液冷从 " 可选 " 走向 " 刚需 ",风液融合成过渡期最优解
在冷却散热方面,传统风冷系统散热能力的物理极限仅每机架 60-70kW 左右,已经无法满足 AI 服务器机架的冷却需求,而液冷方案的效能更优,正从 " 可选配件 " 转变为 AIDC 的 " 战略刚需 "。TrendForce 预测,到 2026 年,AI 数据中心的液冷渗透率将达到 40%,AI 芯片层面的液冷渗透率更将达到 47%。芯片厂商的路线图也在印证这一趋势,英伟达最新的 Vera Rubin 架构已明确要求全部采用液冷技术进行散热。

考虑到很多数据中心因成本、现有配套设备、可靠性、改造周期等因素,很难一蹴而就迈入全液冷的模式,风液兼容架构被视为未来几年重要的制冷散热模式。
梁超用一个生动的比喻解释了这一过渡策略:" 施耐德电气热管理解决方案支持风液兼容的灵活配置,就像当下的混合动力汽车征,不仅能解决技术迭代中的过渡难题,更可兼顾传统架构与创新架构的双重特性。" 该方案完整覆盖液冷与风冷架构,支持从机架级、行级到房间级的分层部署,实现可靠性与经济性的最优平衡。
(2)供电侧:" 过山车 " 式负载与推理爆发,对可靠性提出更高要求
在供电方面,AIDC 未来也将面临严峻挑战。在执行超大规模多模态模型训练或代理式 AI 推理任务时,算力集群会在极短时间内从数据交换状态切换到全负荷计算状态,这种 " 过山车 " 式的负载模式不仅可能带来数据中心内部电压骤降,也容易对外部电网造成谐波干扰和频率波动。
此外,AI 的发展轨迹还将进一步影响供电系统的设计重心。Gartner 预测,到 2027 年,推理工作负载将超越训练,成为 AIDC 的主要电力消耗项。推理业务面对的是数以亿计的终端用户,还会涉及到多个 Agent 之间的连续交互,电力波动和故障极易导致业务受影响。因此,AIDC 供电系统的可靠性和可用性未来会提出更高要求。梁超表示,施耐德电气为客户提供的最重要的就是安全保障。
施耐德电气高可靠电力系统与控制方案,以灵活设计、高效部署、最小化现场施工、最大系统可用为特点,可以满足 AIDC 对于供电系统的各种需求。在供电架构方面,施耐德电气在全球实践中已广泛部署 "4N/3 全冗余分布式架构 "。此外,施耐德电气还与英伟达等生态伙伴深度协同,探索 800V 高压直流技术,将交流 UPS 时代的 "Live Swap" 零风险在线插拔技术移植至直流架构,为 800V 高压直流架构的标准化和规模化落地做好准备。
03
全栈能力:" 拼装 " 到 " 协同 ",AIDC 的竞争新维度
如今的 AIDC 早已不是众多设备的简单拼装,而是发展成为各组件深度耦合与协同的 "AI 工厂 ",这种范式的转变,使得全栈能力的价值愈发凸显。

所谓 " 全栈能力 ",纵向上覆盖从电网到芯片的完整技术栈;横向上贯穿从战略规划到运营优化的全生命周期。只有具备这种全栈协同能力,才能驾驭日益复杂的 AIDC 系统,将不确定性转化为可规划、可演进、可持续的确定性。,才能让 AI 就绪,并获得 AI 时代的长周期竞争力。
施耐德电气 "AI 就绪 " 全栈解决方案,以数据中心全生命周期为主线,贯通 " 思路就绪、方案就绪、未来就绪 " 三大阶段,将基础设施的不确定性转化为可规划、可演进、可持续的确定性能力。
思路就绪:施耐德电气不仅以行业白皮书输出方法论,引领行业最佳实践;同时携手英伟达等生态伙伴共创 AI 工厂标准化参考设计;更以能源采购战略咨询,帮助客户降低和优化全生命周期能源成本。
方案就绪:施耐德电气提供 " 电、冷、软、服、融 " 五大维度的深度融合解决方案,实现从电网到芯片、从芯片到冷源的端到端覆盖:
以 " 电 " 赋能韧性:提供从电网到芯片的全链路供电保障,确保算力系统的高可靠性;
以 " 冷 " 赋能稳定:通过风液兼容架构,实现从芯片到冷源的全链路精准散热;
以 " 软 " 赋能高效:以软件驱动算力调度、能效优化与智能运维;
以 " 服 " 赋能安心:整合咨询规划、部署测试、驻场运维与远程专家服务;
以 " 融 " 赋能敏捷:通过模块化、预制化产品实现灵活扩展与快速部署。
未来就绪:施耐德电气通过全栈能效优化、模块化弹性扩展与技术迭代兼容,助力客户持续释放算力资产的商业价值,并将可持续发展转化为长期战略优势。
施耐德电气 "AI 就绪 " 全栈解决方案折射出 AIDC 服务模式的深层变化:供应商不再只是卖设备,而是以 " 全生命周期伙伴 " 的身份参与到数据中心的规划、建设与运营中去。
04
中国与全球差异:更强性能、更快部署、更低成本
在这场全球性的 AIDC 建设浪潮中,中国市场展现出独特的活力与特征。梁超将中国与全球智算中心建设的差异精炼总结为 " 三超特征 ":功率密度更高、建设交付速度更快、成本效益要求更高。施耐德电气以本土化需求为核心出发点,依托强大的本土研发团队和全球领先的关键电源创新中心,打造真正适合中国市场的解决方案。
梁超也指出中国智算发展的一个核心现实,即 " 通算与智算并存 "。他认为,中国的核心国情是通算和智算两者兼有。这意味着未来的基础设施设计必须具备高度的 " 泛用性 ",既要能支撑下一代 AI 训练集群的超高密度,也要能兼容传统存储和通用计算业务的稳定运行。中国的独特性不在于简单地跟随全球趋势,而是在于以追求更强性能、更快速度和更低成本的方式,同时驾驭好 " 通算 " 与 " 智算 " 这两条线。
05
综合观察
站在 " 十五五 " 开局之年回望,中国智算产业正处在一个微妙的时间窗口:2025 年中国建成 42 个万卡智算集群,算力规模已居全球前列,但 AIDC 的能力仍处于爬坡期,电冷协同、数字孪生、全栈优化等更高阶的能力才刚刚起步," 算电协同 "" 电冷协同 " 从概念落地为工程实践,仍需要大量扎实的技术攻坚和产业协同。
面向未来,AIDC 的竞争表面上是能效指标的比拼:每一度电可支撑多少次运算、每一块芯片能产生多少 Token,但实质上是一场全栈协同能力的较量。谁能在 " 电、算、冷 " 之间找到最优解,谁就能定义 AI 基础设施的下一程。
END
文章精选
#
#
#
#
#
#
#
#
#
#
大数据在线是聚焦人工智能、大数据、云计算等前沿科技领域深度观察的深度媒体。目前,大数据在线在微信公众号、今日头条号、新浪财经、36 氪、雪球号、观察号等主流自媒体平台均有入驻,积累粉丝超过 20W;并荣获今日头条十大科技新锐媒体、商业新知十大人工智能媒体等多项殊荣。商务联系请添加微信:Owen_Inter,添加请备注具体信息。
>>>


登录后才可以发布评论哦
打开小程序可以发布评论哦