新闻中心

联系我们

了解更多详细信息,请致电

020-38815864

地址:广州市天河区燕岭路120号823
电话:020-38815864
邮箱:cs@cs003.vip

AI 服务器单机柜功率突破 60kW!传统风冷彻底退场,液冷成唯一选择


发布时间:2026-04-20


当AI大模型参数从千亿级跃升至万亿级,训练集群的功率密度正以指数级增长,单机柜功率突破60kW已从实验室数据变为行业常态,部分领先智算中心甚至达到100-140kW的超高密度部署。在这场"算力与热量"的博弈中,传统风冷技术正遭遇物理极限的严峻挑战,液冷系统凭借其卓越的散热效率和能效表现,成为AI服务器散热的唯一可行选择。


一、算力狂飙下的热管理危机:风冷技术触及物理天花板

AI服务器功率密度的飙升并非偶然,而是算力需求与芯片技术演进的必然结果:
1. 芯片功耗"三级跳":以NVIDIA H100 GPU为例,单卡功耗达700W,下一代B100预计突破1000W,远超风冷单点散热极限(约700W)。高端AI芯片热流密度已达88W/cm²,部分先进封装(如Chiplet、3D堆叠)设计使热量更集中,热流密度可能突破165W/cm²,远超风冷技术约100W/cm²的处理上限。
2. 机柜功率密度指数级增长:2023年AI服务器单机柜功率普遍为20-30kW,2024年迅速突破60kW,2025年部分场景已达140kW,而传统风冷系统的散热极限仅为15-20kW,即使通过热通道遏制、优化风道等技术改良,稳定支持也难以超过30kW。
3. 风冷系统的"死亡螺旋":当机柜功率超过30kW,风冷系统出现三大致命问题:
- 冷却效率急剧下降40%以上,风扇转速飙升导致噪音污染(可达90+分贝)和能耗激增
- 芯片频繁触发热节流保护,算力输出波动可达20-30%,严重影响训练稳定性
- PUE值(电源使用效率)居高不下(1.4-1.8),无法满足绿色数据中心标准

风冷技术的物理局限本质在于散热介质的性能差异:空气导热系数仅为0.026W/m·K,而常用的绝缘冷却液导热系数可达0.12-0.16W/m·K,是空气的5-6倍,散热效率差距更是达100倍以上。这种基础物理属性的差距,决定了风冷在高功率密度场景下的必然退场。


二、液冷技术:从"可选方案"到"必选项"的演进

面对算力密度爆炸,液冷技术凭借其颠覆性的散热效率,成为AI服务器散热的唯一可行路径,主要分为两大技术路线:

1. 冷板式液冷:60kW密度的主流过渡方案

冷板式液冷通过定制化冷板直接贴合CPU、GPU等核心发热部件,形成"液冷核心+风冷辅助"的气液双通道散热架构,适配50-80kW/柜的功率密度场景。
技术优势:
- 对现有服务器架构改动较小,支持模块化升级,改造成本可控(单机柜约2-3万元)
- PUE值可降至1.08-1.15,相比风冷节省制冷能耗30-40%
- 核心部件温度稳定控制在46-54℃,避免热节流,保障算力输出稳定性
应用现状:冷板式液冷技术成熟度高,已成为互联网巨头和大型云服务商AI数据中心的主流选择,如曙光、浪潮等厂商的方案可将国产AI芯片核心温度稳定控制在55℃以下,适配主流国产AI芯片。

2. 浸没式液冷:100kW+超算密度的终极解决方案

浸没式液冷将服务器整机或核心部件完全浸入绝缘冷却液中,实现360°无死角热量交换,适配80-140kW/柜的超高密度场景,是国家级智算中心和超算中心的首选方案。
技术突破:
- 散热效能是冷板式的2-3倍,PUE值可进一步降至1.04-1.1,逼近理论极限
- 消除局部热点,内存、VRM、NVMe硬盘等所有部件同步散热,温度均匀性提升50%
- 彻底消除风扇噪音(降噪20-35分贝),同时避免灰尘腐蚀,延长硬件寿命30%以上

冷却液技术革新:新一代氟化液和合成油具备绝缘、无毒、低粘度、高闪点特性,挥发率降至0.01%以下,解决了早期冷却液的安全与维护难题。


三、液冷技术的实践挑战与解决方案

尽管液冷技术优势显著,但大规模部署仍面临三大核心挑战,行业正通过技术创新逐步攻克。在兼容性适配方面,当前主要面临线缆爬液、光模块耐腐蚀不足以及服务器结构需改造等问题,对此行业已针对性推出定制化防水连接器、耐腐蚀涂层以及模块化液冷机柜设计等解决方案,有效解决适配难题;在运维体系变革层面,冷却液管理、泄漏检测以及故障排查流程的适配的难题,可通过智能液体监测系统、微泄漏预警技术和远程诊断平台来破解,大幅提升运维效率;而针对生态协同不足,即芯片厂商、服务器厂商、液冷方案商之间标准不统一的问题,开放数据中心联盟正牵头制定统一接口规范,推动液冷生态的标准化发展,打破协同壁垒。

以NVIDIA GB200 NVL72液冷系统为例,其通过全栈优化实现了40倍算力密度提升,同时能耗效率提升25倍,水资源利用效率提升300倍,证明液冷技术已从实验室走向规模化商用。


四、行业拐点:液冷渗透率加速提升,风冷市场份额持续萎缩

行业数据显示,2026年Q1全球AI服务器液冷渗透率已突破37%,在60kW+高密度场景中更是高达78%,风冷技术正加速退出AI训练和推理的核心场景。
这一趋势背后有三大驱动力:
1. 成本效益反转:液冷系统初期投资虽高(约为风冷的1.5-2倍),但3-5年TCO(总拥有成本)降低20-30%,特别是在电费高昂的地区,投资回收期可缩短至18-24个月
2. 政策导向明确:全球数据中心能效标准趋严,PUE≤1.2成为新建数据中心的硬性指标,风冷系统难以满足这一要求
3. 技术迭代加速:液冷系统的部署周期已从6个月缩短至2个月,维护效率提升50%,消除了早期用户的顾虑

返回上一页
  • 返回顶部
  • 020-38815864
  • 微信咨询
    关注我们