新闻中心

联系我们

了解更多详细信息,请致电

020-38815864

地址:广州市天河区燕岭路120号823
电话:020-38815864
邮箱:cs@cs003.vip

2025 AIDC 液冷落地指南:浸没式 PUE1.05,适配东数西算碳中和考核


发布时间:2025-11-26


一、政策驱动:液冷成为 “东数西算” 必选项

  1. 碳中和考核刚性约束
国家《数据中心绿色低碳发展行动计划》明确 2025 年新建数据中心 PUE≤1.25,东部核心区域收紧至 1.15,西部 “东数西算” 枢纽节点更提出 1.10 准入门槛。传统风冷 PUE 普遍 1.4-1.6,已无法满足政策要求,而浸没式液冷 PUE1.05 的极致能效,成为突破 “能耗红线” 的核心路径。
  1. 政策红利加速落地

多地出台专项补贴:广东对 PUE≤1.15 项目给予优先电力保障与财政补贴,国家发改委将液冷纳入绿色数据中心 5% 投资补贴范围。《绿色数据中心评价指标》更将液冷技术列为评级加分项,形成 “合规 + 激励” 双重驱动。


二、技术核心:PUE1.05 的实现路径与优势

  1. 浸没式液冷技术原理
将服务器整机浸入绝缘冷却液,通过液体直接接触散热(热交换效率较风冷提升 3-5 倍),结合相变散热技术,芯片温度稳定控制在 60℃以下,避免局部热点导致的算力降频。主流方案已实现 PUE1.05-1.08,中科曙光雄安项目更达 1.04 极致水平。
  1. 三大核心适配价值
    • 算力密度突破:支持单机柜 50-150kW 功率,适配 AI 大模型训练、超算等高密度场景,较风冷机柜密度提升 10 倍;
    • 碳减排量化:10MW 规模数据中心年节电 2600 万度,减碳 4 万吨,相当于种植 300 万棵树,直接契合碳中和考核指标;

    • 全生命周期适配:模块化设计支持 200kW 以上功率升级,兼容 H100/H200 GPU 等新一代芯片,避免频繁硬件改造。

三、落地实操:从选型到运维的全流程指南

(一)场景适配选型

应用场景
推荐方案
核心优势
西部超算中心
相变浸没式 + 自然冷却
利用西部低温环境,PUE 逼近 1.05
东部 AI 智算集群
单相浸没式 + 废热回收
解决高密度散热,余热供暖复用
存量机房改造
模块化浸没单元
72 小时快速部署,业务零中断

(二)关键实施要点

  1. 成本控制策略
初期投资较风冷高 30%-50%,但通过三方面对冲:① 冷却液国产化使氟化液价格从 80 元 /kg 降至 40 元 /kg;② 年电费节省 800 万元 / 10MW 规模,3-5 年 TCO 与风冷持平;③ 申请绿色数据中心认证获取政策补贴。
  1. 运维保障体系
    • 采用智能温控算法,实时调整冷却液流量,挥发量控制在年 0.5% 以下;
    • 部署远程监控系统,监测冷却液液位、温度及设备状态,运维成本降低 40%;
    • 选择兼容现有 IT 架构的方案,避免服务器更换额外投入。
  1. 政策申报路径

优先申报 “国家绿色数据中心”,同步对接地方能耗指标倾斜,西部项目可叠加 “东数西算” 专项支持,最大化政策红利。


四、标杆案例:PUE1.05 落地实践

  1. 超聚变华南数谷项目
采用静音全液冷一体化系统,单机柜 120kW 功率,PUE<1.05,年碳排放减少量相当于 300 万棵树,通过绿色数据中心认证获省级补贴。
  1. 韩美三巨头联合方案
LG+SK+GRC 整合冷却系统、专用冷却液与冷却罐技术,在 150kW 机柜场景下实现 PUE1.05,计划 2026 年量产,全生命周期成本较冷板式低 25%。
  1. 普洛斯常熟智算中心
部署 ACDU 液冷分配单元,年均 PUE1.08-1.12,年节电超 1000 万度,验证了浸没式技术在商业场景的稳定性。

返回上一页
  • 返回顶部
  • 020-38815864
  • 微信咨询
    关注我们