logo

新闻中心

9 月开售!NVIDIA GB300 AI 服务器来了:算力翻 11 倍,这些行业要变天

今年人工智能硬件圈最大的悬念即将揭晓 ——NVIDIA 旗下基于 Blackwell Ultra 架构的 GB300 AI 服务器,确定 9 月正式启动全球发货。这款被业内称为 "推理神器" 的新设备,不仅在算力和能效上实现了跨越式突破,更可能重塑整个 AI 产业链的竞争格局。

一、从 "够用" 到 "过剩" 的算力革命
GB300 最让人惊叹的,是它解决了 AI 推理长期存在的 "内存瓶颈" 问题。288GB HBM3e 显存搭配 15P FLOPS FP4 算力,让它成为全球首个能流畅运行百万 token 级推理任务的平台。

实际测试中,运行 DeepSeek-R1 671B 这种超大型模型时,GB300 生成响应只要 10 秒,而上一代 H100 需要 1 分半钟。如果把 72 颗 GB300 GPU 和 36 颗 Grace CPU 组合成超级集群,每秒能处理 128 万亿 token,是上一代系统的 11 倍。

背后支撑这种飞跃的技术创新很实在:
  • 稀疏计算技术把算力利用率从 30% 提到 89%,直接帮企业省钱
  • 全液冷设计搞定 1400W 的高功耗,能效比提升 40%

  • 新升级的网卡把带宽提到 1.6T,大规模集群通信更顺畅

二、从硬件到应用的连锁反应
GB300 的到来,不只是一款新硬件那么简单。TrendForce 的数据显示,2025 年全球 AI 服务器市场规模可能冲到 2980 亿美元,而这款新设备大概率会贡献超过六成的增长。

现在戴尔、惠普这些大厂已经拿出了基于 GB300 的产品。戴尔的 PowerEdge XE9712 服务器,靠液冷技术把推理输出提升了 50 倍,订单已经排到了年底。

这波热潮还带火了上下游产业:
  • 高端电子布和 HVLP5 高频铜箔供不应求,缺口超过 25%
  • 1.6T 光模块订单被中际旭创等企业抢空

  • 液冷设备厂商英维克、高澜股份的订单都排到 2026 年了

三、行业变局
GB300 的超强算力,正在让多个行业的效率天花板被打破:
智能汽车领域,理想汽车用它搭建的新系统,把自动驾驶的环境建模延迟降到了 500 纳秒,反应速度提升一个量级;
工业设计方面,西门子用它做风电叶片设计,以前要 6 个月的迭代周期,现在 2 周就能完成;
生物医药领域更明显,辉瑞用它做新药筛选,效率提了 20 倍,成本却降了七成。

连开发者生态都跟着升级 —— 新推出的推理服务库,能让主流模型的处理速度提升 30 倍,现在微软、谷歌这些大厂都已经接入了。

四、算力竞赛进入新阶段
黄仁勋在今年 GTC 大会上透露,2026 年还会有更强的 Rubin 架构,性能是 GB300 的 3.3 倍;到 2027 年,新一代产品性能甚至会达到现在的 14 倍。这种迭代速度,正在让通用人工智能的实现变得越来越近。
IDC 分析师 John Dinsdale 说得很直接:"GB300 标志着 AI 算力进入 ' 推理优先 ' 时代,企业该重新规划算力投入了。"OpenAI 的 Ilya 也认为,这款设备让复杂推理的成本第一次出现大幅下降。
今年 9 月,首批 GB300 服务器就会送到 CoreWeave 这些头部客户手上。不管是生成式 AI 的内容创作,还是物理世界的智能改造,这场由 NVIDIA 掀起的算力革命,已经让我们看到了人工智能的下一个爆发点。



X云擎技术

截屏,微信识别二维码

微信号:18148905161

(点击微信号复制,添加好友)

  打开微信