logo

新闻中心

2026 AI 服务器功率密度爆炸:单柜 1 兆瓦时代的散热生死战

当英伟达Blackwell Ultra与Rubin架构将单机柜功率推向1兆瓦,当一颗AI芯片的功耗突破1000瓦并向2000瓦迈进,AI算力基础设施正迎来一场前所未有的“散热生死战”。2026年,单柜1兆瓦已从概念走向商用,风冷彻底退场,液冷成为唯一解,一场围绕散热效率、成本与可靠性的技术与产业重构全面展开。


一、功率密度爆炸:1兆瓦时代的算力狂奔

过去十年,AI服务器功率密度呈指数级增长,传统数据中心的散热设计已完全失效。从时间维度来看,2024年主流AI机柜功率为32kW/柜,大致相当于4户居民的用电负荷,当时仍以风冷技术为主;2025年主流AI机柜功率跃升至100kW/柜,用电负荷约等于80户居民,冷板液冷技术开始普及;2026年,主流AI机柜功率正式突破1兆瓦,用电负荷可达约120户居民,浸没式液冷进入规模化应用阶段;预计到2028年,主流AI机柜功率将进一步提升至1.5兆瓦,对应约180户居民的用电负荷,届时两相浸没液冷技术将走向成熟。
2026年,英伟达GB200 NVL72整机柜功率达1.2MW,Rubin架构单机柜集成576颗GPU,功率突破1MW,相当于将一座中型工厂的用电负荷塞进一个标准机柜。行业数据显示,2026年头部AI企业单园区训练功率普遍迈入1GW级别,算力耗电已超部分中型城市,散热成为制约算力扩张的核心瓶颈。
功率密度爆发的背后,是AI模型参数从百亿级向万亿级跃迁,以及芯片集成度的持续提升。单柜1兆瓦意味着2800A的超大电流,传统54V直流母线已难以支撑,英伟达推出的800V HVDC架构将电流降至1500A,铜材用量减少45%,配电损耗从5%降至1.8%,为高功率密度供电提供基础。

二、散热技术路线:从风冷到液冷的终极突围

风冷时代早已触及物理天花板。空气的导热系数仅为0.026W/(m·K),比热容为1.005kJ/(kg·K),面对单柜1兆瓦的热通量,风冷的散热效率已完全不足,服务器宕机风险呈指数级上升。2026年,液冷技术成为唯一可行方案,形成三大主流路线,各有优劣与应用场景。

1. 冷板式液冷:当前最具性价比的主流选择

冷板式液冷通过定制冷板与CPU/GPU芯片直接接触,利用冷却液带走热量,是2026年高密AI机柜的标配方案。英维克等龙头企业市占率超42%,适配英伟达GB300、华为昇腾等主流集群。
  • 核心优势:改造成本低、标准化高、兼容现有架构,运维接近风冷,热阻可降至0.05℃/W以下。
  • 典型应用:英伟达GB200 NVL72采用“102kW冷板+25kW风冷”的精准散热方案,覆盖核心热源;新华三液冷整机柜实现75%-80%液冷散热占比,搭配双重防泄漏机制保障安全。
  • 局限性:极限散热密度约750kW/柜,难以支撑1.5MW以上的超高密度场景。

2. 浸没式液冷:1兆瓦时代的终极方案

浸没式液冷将服务器整机或关键部件完全浸泡在绝缘冷却液(氟化液、矿物油等)中,通过液体直接接触实现高效散热,分为单相浸没与两相浸没(相变)两类。
  • 两相浸没液冷:利用液体沸腾吸收潜热,散热效率比单相高30%-40%,能耗降低45%以上,PUE可低至1.05,接近理论极限。中科曙光在雄安数据中心部署的相变浸没液冷方案,实现单机柜100kW稳定运行,机房布局简化40%。
  • 单相浸没液冷:系统结构简单,维护成本低,适合50-100kW密度场景,是1兆瓦机柜的核心过渡方案。
  • 核心优势:散热能力是冷板式的5倍以上,支持单柜1MW+极限密度,无风扇无空调,噪音降低90%。
  • 挑战:冷却液成本高、服务器改造难度大、回收系统复杂,目前主要用于超算中心、头部AI企业的核心训练集群。

3. 混合液冷方案:存量升级的最优解

混合液冷结合冷板与浸没式优势,核心处理器采用冷板冷却,其余部件采用浸没式散热,在保持90%散热效率的同时,降低30%-40%实施成本,是存量数据中心升级的最佳选择。超聚变Powershelf全液冷方案采用集成CDU设计,单机柜供电突破120kW,相比传统浸没技术重量减少40%+,机器人黑灯维护使运维成本降低50%+。

三、散热生死战:1兆瓦时代的核心挑战

单柜1兆瓦的落地,不仅是技术突破,更是一场涉及材料、工程、运维的系统性挑战。

1. 材料与密封技术:防泄漏是生命线

1兆瓦级机柜的超大热通量对冷却液密封、材料兼容性提出极高要求。液冷系统任何泄漏都可能导致服务器灾难性损坏,因此必须实现:
  • 双重防泄漏设计:单节点机箱疏液导流结构+关键部位绳状泄漏检测,新华三、超聚变等企业均采用此方案。
  • 高兼容性材料:冷却液与服务器主板、管路、密封件的长期兼容,新型合成冷却液的介电强度需达35kV/mm以上,避免短路风险。
  • 碳纤维复合材料应用:轻量化与耐腐蚀性兼具,显著延长系统使用寿命,降低维护成本。

2. 配电与热管理:从机柜到数据中心的全局优化

1兆瓦机柜的800V HVDC配电系统与传统48V架构差异巨大,需重新设计母线、连接器与保护装置。同时,热管理需实现全局协同:
  • 机柜级精准控温:根据芯片负载动态调节冷却液流量,避免局部过热。
  • 数据中心级余热利用:将散热产生的热水用于园区供暖、工业生产,提升整体能效,PUE可进一步降至1.03。
  • 集装箱化部署:20英尺集装箱可承载过去200柜的算力,实现数据中心从“层”到“箱”的进化,简化热管理布局。

3. 成本与产业链:从高端到普惠的普及之路

当前浸没式液冷的冷却液成本约500-800元/升,单柜冷却液投入超10万元,成为普及瓶颈。同时,产业链面临三大痛点:
  • 高端产品短缺:高导热、低挥发、环保型冷却液供应不足,高端冷板与密封件依赖进口。
  • 运维门槛高:液冷系统需专业技能,黑灯运维成为趋势,推动机器人巡检、AI故障诊断技术发展。
  • 成本下降加速:随着规模化生产,冷却液成本预计2027年下降50%,冷板单价降低30%,为1兆瓦机柜普及扫清障碍。

四、行业实践:1兆瓦散热的标杆案例

2026年,全球头部企业与超算中心已率先落地1兆瓦级散热方案,树立行业标杆。
  1. 英伟达Rubin机柜:集成576颗GPU,单柜功率1MW,采用800V HVDC供电+浸没式液冷,PUE低至1.04,已在Google Project Deschutes项目中规模化部署。
  2. 中科曙光相变浸没液冷:在国家超算互联网郑州核心节点实现单机柜900kW密度,通过氟化液相变技术,散热效率提升80%,机房噪音降至30分贝以下。
  3. 阿里云液核服务器:采用相变浸没式液冷,支持CPU/GPU持续超频,PUE低至1.05,在智算中心实现单柜1.2MW稳定运行,算力密度翻倍。
  4. 中国联通超聚变方案:全液冷一体化算力系统,单机柜120kW,集成CDU节省占地40%,建设效率提升10倍,已在互联网应用创新基地落地




X云擎技术

截屏,微信识别二维码

微信号:18148905161

(点击微信号复制,添加好友)

  打开微信