/ ai资讯

英伟达GTC25亮点:NVIDIA Blackwell Ultra 开启 AI 推理新时代

发布时间:2025-03-20 17:46:44

加速训练和测试时扩展推理,加速 AI 推理、代理式 AI 和物理 AI。

• 全球领先计算机制造商、云服务提供商和 GPU 云供应商将强化训练和测试时扩展推理能力,从逻辑推理到代理式 AI和物理 AI。
• 全新开源的 NVIDIA Dynamo 推理软件,通过显著提升吞吐量、更快的响应速度以及降低总体拥有成本(TCO),实现推理 AI 服务的规模化扩展。
• NVIDIA Spectrum-X 增强型 800G 以太网网络,为 AI 基础设施显著降低延迟和抖动。

NVIDIA 推出 NVIDIA BlackwellAI 工厂平台的新一代产品 —— NVIDIA Blackwell Ultra,开启了 AI 推理新时代。

NVIDIA Blackwell Ultra 提升了训练和测试时扩展推理能力(test-time scaling inference), 即通过在推理过程中增加计算量来提升准确率的技术,以帮助全球各地的企业加速AI推理、代理式AI及物理AI等应用的开发与部署。

基于一年前推出的突破性的 Blackwell 架构,Blackwell Ultra 包括 NVIDIA GB300 NVL72 机架级解决方案和 NVIDIA HGX™ B300 NVL16 系统。 GB300 NVL72 的 AI 性能是NVIDIA GB200 NVL72 的 1.5 倍,这使得建造 AI 工厂 的收入机会与基于NVIDIA Hopper™构建的系统相比增加了 50 倍。

“人工智能实现了巨大的飞跃 —— 推理和代理式AI对计算性能的需求呈数量级增长,”NVIDIA创始人兼首席执行官黄仁勋表示。“我们为这一时刻设计了 Blackwell Ultra —— 它是一款单一且多功能的平台,能够轻松高效地完成预训练、后训练以及推理型AI推理任务。”

NVIDIA Blackwell Ultra 实现 AI 推理

NVIDIA GB300 NVL72 在一个机架设计中连接了 72 个 Blackwell Ultra GPU 和 36 个基于Arm Neoverse 架构的 NVIDIA Grace™ CPU,整体表现如同一个巨型 GPU,专为测试时扩展而打造。通过 GB300 NVL72,AI 模型能够利用平台增强的计算能力探索多种解决方案,将复杂请求分解为多个步骤,从而生成更高质量的响应。

GB300 NVL72 预计还将通过 NVIDIA DGX™ Cloud提供,该平台是一个端到端的全托管 AI 平台,部署于领先的云服务上,通过软件、服务和 AI 专业知识为不断发展的工作负载优化性能。配备 DGX GB300 系统的 NVIDIA DGX SuperPOD™ 采用 GB300 NVL72 机架设计,为客户提供了一个交钥匙式 AI 工厂。

NVIDIA HGX B300 NVL16 相比 Hopper 代产品,LLM 推理速度提速了 11 倍,计算性能提升了 7 倍,内存容量扩大了 4 倍,可为最复杂的工作负载(如 AI 推理)提供突破性性能。

此外,Blackwell Ultra 平台特别适用于以下应用:
  • 代理式 AI, 利用复杂推理和迭代规划自主解决复杂的多步骤问题。 AI 智能体系统超越了简单的指令执行。 他们能够推理、规划并采取行动以实现特定目标。
  • 物理 AI,使企业能够实时生成合成的、具有高度真实感的视频,用于大规模训练机器人和自动驾驶汽车等应用。

NVIDIA 横向扩展基础架构以实现绝佳性能

先进的横向扩展型网络是 AI 基础架构的重要组成部分,可在降低延迟和抖动的同时提供卓越性能。

Blackwell Ultra 系统与[ NVIDIA Spectrum-X™ 以太网]和[ NVIDIA Quantum-X800 InfiniBand]平台无缝集成,通过 NVIDIA ConnectX®-8 SuperNIC 为系统中的每个 GPU 提供 800 Gb/s 的数据吞吐率。 这为 AI 工厂和云数据中心提供了极佳的远程直接内存访问(RDMA)能力,使其能够无瓶颈地处理 AI 推理模型。

NVIDIA BlueField®-3 DPU,作为 Blackwell Ultra 系统的重要组件,能够实现多租户网络架构、GPU 计算资源弹性扩展、数据访问加速以及实时网络安全检测 。

全球技术领导者拥抱 Blackwell Ultra

合作伙伴预计将从 2025 年下半年开始推出基于 Blackwell Ultra 的产品。

思科、戴尔科技、慧与、联想和超微预计将推出基于 Blackwell Ultra 的各类服务器,此外还包括 Aivres、华擎、华硕、Eviden、Foxconn、技嘉科技、英业达、和硕、云达科技(QCT)、纬创和纬颖科技。

云服务提供商亚马逊云科技(AWS)、谷歌云、微软 Azure 和 Oracle Cloud Infrastructure(OCI),以及 GPU 云提供商 CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta 和 YTL 将成为首批提供 Blackwell Ultra 支持实例的供应商。

NVIDIA 软件创新减少 AI 瓶颈

全部 NVIDIA Blackwell 产品组合都得到 NVIDIA AI 全栈平台支持。 同时发布的 [NVIDIA Dynamo]开源推理框架可扩展推理 AI 服务,通过提供最高效的测试时计算扩展解决方案,得以实现吞吐量的飞跃,同时降低响应时间和模型服务成本。

NVIDIA Dynamo 是全新的 AI 推理服务软件,旨在为部署推理 AI 模型的 AI 工厂最大化 token 收益。它可以协调和加速数千个 GPU 之间的推理通信,并使用分离式服务在不同的 GPU 上分离大语言模型的预处理和生成阶段。这使得每个阶段都能根据其特定需求进行独立优化,确保 GPU 资源利用率最大化。

Blackwell 系统非常适合运行全新的 [NVIDIA Llama Nemotron 推理模型]和 NVIDIA AI-Q Blueprint,这些都得到用于生产级 AI 的 [NVIDIA AI Enterprise]软件平台支持。 NVIDIA AI Enterprise 软件平台包括 [NVIDIA NIM][™][ 微服务],以及企业可以在 NVIDIA 加速的云、数据中心和工作站上部署的 AI 框架、库和工具。

Blackwell 平台建立在 NVIDIA 强大的开发工具生态系统之上,包括 NVIDIA CUDA-X™ 库、超过 600 万开发者和 4,000 多个可跨数千 GPU 扩展性能的应用程序。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com