新闻中心

联系我们

了解更多详细信息,请致电

020-38815864

地址:广州市天河区燕岭路120号823
电话:020-38815864
邮箱:cs@cs003.vip

英伟达 GTC 2026:Rubin Ultra液冷 AI 服务器首发


发布时间:2026-03-26


2026年3月,圣荷西市中心举办的英伟达GTC大会上,黄仁勋正式发布Rubin Ultra液冷AI服务器,作为Vera Rubin Ultra架构的核心硬件载体,这款产品以颠覆性的液冷设计、极致的算力密度与能效表现,打破了AI服务器高算力与高能耗、高散热压力之间的矛盾,标志着AI超算基础设施从“算力堆砌”向“高效协同”迈入全新阶段,也印证了液冷技术已从AI服务器的“可选配置”升级为“刚需标配”。


此次首发的Rubin Ultra,并非简单在传统AI服务器上叠加液冷模块,而是基于英伟达Kyber机架架构进行全栈重构,将液冷散热与硬件架构、算力调度深度融合,形成“硬件-散热-软件”三位一体的高效解决方案。其核心突破集中在液冷技术优化、算力密度提升与能效控制三大维度,每一项升级都精准直击当前大规模AI训练与推理场景的核心痛点。


在液冷散热方案上,Rubin Ultra采用微通道冷板(MCCP)与镀金散热盖的组合设计,这也是英伟达首次在旗舰AI服务器中全面应用该方案,替代了传统风冷与普通液冷架构,实现了散热效率与硬件兼容性的双重突破。不同于传统冷板的单一散热路径,Rubin Ultra的微通道冷板采用精密分流设计,冷却工质可直接贴合GPU核心及高功耗部件,通过单相液冷循环实现热量快速导出,将GPU核心温度稳定控制在45℃以下,避免了高负载场景下因温度过高导致的算力降频问题。同时,该液冷系统与冷量分配单元(CDU)深度协同,CDU能耗比优于10%,可实现冷却工质流量、压力的精准调控,结合高温供水设计,能充分利用自然冷源,进一步降低整体能耗,使搭载该服务器的数据中心PUE值稳定控制在1.05-1.08之间,远优于行业1.25的基准要求,也符合《“东数西算”2026年工作要点》中新建大型数据中心PUE低于1.15的政策标准。


算力密度的跨越式提升,是Rubin Ultra的另一大核心亮点。依托Kyber竖向机架架构,该服务器采用竖向排列方式,单一机架内可集成144颗Rubin Ultra GPU,通过NVLink 144铜缆互联,将互联延迟降低至纳秒级,实现算力的高效协同;若通过光学扩展升级至NVL576配置,单机架可整合576颗GPU,FP4精度推断算力跃升至15 ExaFLOPS,是标准Rubin NVL144配置的四倍,相当于一台机架即可承载此前数台服务器的算力规模。

硬件配置上,Rubin Ultra搭载定制化4NP工艺GPU,集成约3360亿晶体管,配备1TB HBM4e显存,带宽可达32TB/s-64TB/s,是上一代Blackwell B300的4-8倍;整机内存容量高达365TB,功耗控制在600千瓦量级,实现了“高算力、高密度、低功耗”的平衡——这一配置的核心价值的在于,能够大幅降低大规模AI模型(如千亿级参数大模型、自主智能体Agent)的训练与推理延迟,同时减少数据中心的机架占用空间,降低机房建设与运维成本。

软件与硬件的协同优化,进一步释放了Rubin Ultra的算力潜力。

该服务器全面适配英伟达同期发布的Dynamo AI工厂操作系统,借助Dynamo的异构解耦能力,将AI推理任务进行精细化拆分:预填充(Prefill)和注意力机制解码等对算力要求极高的环节,在Rubin Ultra GPU上执行;前馈网络解码(Token生成)等对延迟敏感的环节,则在Groq LPU上执行,通过这种协同调度,使整体推理性能提升35倍,将1吉瓦AI工厂的Token生成速率从2200万/秒提升至7亿/秒,为高价值Agent服务的规模化落地提供了物理基础。


从行业背景来看,Rubin Ultra的首发恰逢AI算力需求爆发与液冷技术普及的关键节点。随着英伟达GB300、华为昇腾910B等高功率AI芯片的全面落地,单卡功耗突破1400W,传统风冷散热的效率已达物理极限,其散热效率仅为液冷的1/25,同体积携热能力仅为液冷的1/3000,无法满足高算力场景的散热需求。数据显示,2026年全球AI服务器液冷渗透率已从2025年的15%飙升至50%以上,新建智算中心更是实现100%液冷标配,全球液冷市场规模突破165亿美元,中国市场占比超60%,液冷已成为高功率AI算力基础设施的“必选项”。


Rubin Ultra的推出,不仅是英伟达Rubin架构的一次重磅升级,更对整个AI基础设施产业产生深远影响。在技术层面,其微通道液冷与机架架构的深度融合,为行业树立了“算力与能效协同优化”的标杆,后续相变冷板、封装级液冷等更先进的方案,有望在其基础上进一步迭代;在产业层面,广达、纬创等制造商已确认首批Rubin Ultra机架将于2026年8月交付,微软Azure、AWS、谷歌云等云厂商也已明确将其与Dynamo操作系统结合,用于下一代AI云服务,这将加速液冷AI服务器的商业化落地,推动AI算力商业模式从“买卡建池”向“按Token计费”转型,降低企业AI部署成本。


据悉,Rubin Ultra液冷AI服务器将于2027年下半年正式量产交付,其核心目标是为AI工厂、超大规模数据中心、高端智算中心等场景提供高效、可靠的算力支撑,助力自主智能体、大模型训练与推理、自动驾驶等领域的技术突破。随着这款产品的落地,英伟达将进一步巩固其在AI硬件领域的主导地位,同时推动整个AI基础设施产业向“高密度、高能效、绿色化”方向发展,为AI技术的规模化应用奠定坚实基础。

返回上一页
  • 返回顶部
  • 020-38815864
  • 微信咨询
    关注我们