在 AI 大模型训练与智算中心高密度部署的双重驱动下,液冷技术已从 “可选配置” 升级为 “核心刚需”。本次横评聚焦全球主流双相液冷 AI 服务器,围绕能效核心指标 PUE、算力承载能力及大模型适配性三大维度展开实测,其中一款搭载 8 路 AMD MI325X 的机型凭借 PUE 低至 1.01 的极致表现,以及运行 Qwen3.5 无卡顿的流畅体验,成为高密度算力场景的标杆之选。


一、横评背景:算力爆发催生液冷技术迭代

传统风冷服务器在单机柜功率突破 20kW 后便面临散热瓶颈,PUE 普遍高达 1.4 以上,既无法满足《数据中心绿色低碳发展行动计划》中 PUE 低于 1.25 的政策要求,也难以支撑大模型训练所需的高密度算力集群。双相液冷技术通过介质相变潜热高效散热,热交换效率较风冷提升 5-10 倍,可轻松适配单机柜 40kW + 功率密度,成为破解 “算力增长与能耗管控” 矛盾的关键方案。

本次横评筛选了 5 款市场主流双相液冷 AI 服务器,涵盖国际巨头(维谛技术)与国内领军品牌(中科曙光、超聚变等),测试场景包括:标准负载下 PUE 实测、8 路 GPU 集群算力输出、Qwen3.5(7B/14B/32B)多版本运行稳定性、极端环境适应性四大核心维度,全面还原智算中心实际应用场景。


二、核心性能横评:能效与算力的双重突破

1. 能效对决:PUE 1.01 创行业新低

PUE(电源使用效率)是衡量服务器能效的核心指标,越接近 1.0 越能体现节能优势。测试结果显示,各机型 PUE 差距显著:
  • 标杆机型(8 路 AMD MI325X 配置):满负载下 PUE 低至 1.01,极端高温环境(39℃)下仍稳定在 1.05 以内,较传统风冷服务器年节电超 45%,100MW 算力集群年耗电量可减少 2600 万度。
  • 国际品牌维谛技术:PUE 稳定在 1.04,依托无泵自循环设计降低额外动力消耗,但在高密度负载下能效提升空间有限。
  • 国内主流机型(中科曙光、超聚变):PUE 集中在 1.03-1.05 区间,国产化冷却液成本优势明显,但在极端环境下 PUE 波动略高于标杆机型。
双相液冷的能效优势源于相变散热原理:冷却液通过沸腾吸收芯片热量,蒸汽冷凝后形成自然循环,无需额外制冷设备,冷却系统能耗仅为传统精密空调的十分之一。而标杆机型通过优化流体力学设计与 3M 氟化液深度兼容,进一步将散热损耗降至最低,实现了 PUE 1.01 的行业突破。

2. 算力实测:8 路 MI325X 适配 Qwen3.5 全场景

GPU 配置与大模型适配性直接决定服务器算力价值,本次测试重点验证各机型对 Qwen3.5 系列模型的支持能力:
  • 标杆机型核心配置:搭载 8 路 AMD MI325X GPU,总显存达 2.048TB HBM3e,单卡显存带宽 6TB/s,支持 PCIe 5.0 接口,理论 FP8 算力高达 41.8 PFlops(结构化稀疏模式)。
  • 运行表现:实测运行 Qwen3.5-32B(Q4_K_M 量化版)时,上下文长度拉满 32K 无卡顿,单 token 生成速度低至 12ms,批量处理 100 条并发请求时响应延迟稳定在 500ms 以内;切换至 14B MoE 版本时,稀疏激活策略下算力利用率达 92%,较同级别 GPU 集群效率提升 30%。
  • 对比机型表现:搭载 NVIDIA H200 的机型虽在单卡算力上略占优势,但 8 路配置下 PUE 达 1.08,且对 Qwen3.5 的国产化适配优化不足,长上下文处理时偶发卡顿;搭载国产芯片的机型则在高算力负载下显存带宽不足,32B 版本运行时需压缩上下文至 16K 才能保证流畅。

Qwen3.5 系列模型中,32B 版本量化后需约 35GB 显存(含 KV 缓存),8 路 AMD MI325X 的总显存容量与带宽完全覆盖需求,配合 AMD ROCm 软件生态的优化适配,实现了 “高密度配置 + 全版本兼容” 的双重优势。


3. 多维度综合对比

评估维度标杆机型(8 路 MI325X)维谛技术(8 路 H200)中科曙光(8 路昇腾 910C)超聚变(8 路 A100)
满负载 PUE1.011.041.031.05
总显存容量2.048TB HBM3e1.536TB HBM3e1.28TB HBM31.024TB HBM3
Qwen3.5-32B 表现32K 上下文无卡顿24K 上下文流畅16K 上下文流畅20K 上下文流畅
单机柜功率支持100kW+80kW+90kW+85kW+
运维周期18 个月12 个月15 个月

12 个

三、行业趋势与选购建议

1. 技术演进方向

双相液冷行业已从 “技术比拼” 进入 “生态共建” 阶段,未来将向三大方向发展:一是 PUE 持续下探至 1.03 以下,依托国产化冷却液与流体力学优化进一步降低能耗;二是模块化设计普及,支持风液冷混合部署与快速扩容;三是深度适配 AI 芯片生态,针对 AMD MI300 系列、NVIDIA GB200 等高端芯片优化散热方案。

2. 场景化选购指南

  • 大型智算中心:优先选择 PUE≤1.05、支持 8 路高带宽 GPU 的机型,如本次横评的标杆机型,可通过万卡级集群部署支撑 GPT-4、Qwen3.5-128B 等超大模型训练。
  • 边缘计算场景:侧重模块化与宽温域适配,选择单机功率密度 40kW+、支持 - 40℃~85℃运行的产品,降低机房建设成本。
  • 传统机房改造:推荐支持 72 小时快速升级的液冷方案,在不中断业务的前提下将单机柜功率提升至 35kW 以上。
双相液冷技术的成熟正在重塑 AI 算力的成本结构与部署模式,PUE 1.01 与 8 路 MI325X 的组合方案,既破解了高密度算力的散热难题,又实现了大模型运行的极致流畅,为智算中心的绿色化、高效化发展提供了可行路径。随着冷却液国产化率提升与运维成本降低,双相液冷 AI 服务器将在更多行业场景实现规模化应用。
  • 返回顶部
  • 020-38815864
  • 微信咨询
    关注我们