NVIDIA 为 gpt-oss-120b 带来业界领先性能,在单个 NVIDIA Blackwell 系统上实现每秒 150 万个 Token。
OpenAI 发布了两个全新开放权重 AI 逻辑推理模型,为全球各个行业、规模的开发者、爱好者、企业、初创公司及政府机构带来前沿 AI 开发技术。
由 NVIDIA 与 OpenAI 共同开发的开放模型 gpt-oss-120b 和 gpt-oss-20b,展现了由社区驱动创新的力量,并凸显 NVIDIA 在推动全球 AI 普及中的关键作用。
任何人都可以使用这两个模型开发生成式 AI、逻辑推理 AI 和物理 AI 以及医疗和制造领域的突破性应用,甚至在 AI 驱动的新一轮工业革命发展过程中开拓新的行业领域。
OpenAI 新发布的灵活、开放权重的文本推理大语言模型 (LLM) 在 NVIDIA Hopper 架构 GPU 上训练而成,能够在全球数亿颗运行NVIDIA CUDA平台的 GPU 上实现极佳推理性能。
这些模型现已作为NVIDIA NIM的形式提供,可轻松地部署在任何 GPU 加速基础设施上,并同时具有灵活性、数据隐私和提供企业级安全等特性。
凭借专为 NVIDIA Blackwell 平台开发的软件优化措施,这两个模型可在 NVIDIA GB200 NVL72 系统上实现每秒 150 万个 Token 的卓越推理性能,极大提升推理效率。
NVIDIA 创始人兼首席执行官黄仁勋表示:“OpenAI 向世界展示了基于 NVIDIA AI 开发的技术,现在他们正在推动开源软件领域的创新。新发布的 gpt-oss 模型使全球各地的开发者都能够在先进的开源基础上进行开发,而这一切都要依托领先的 AI 计算基础设施。”
NVIDIA Blackwell 提供先进的推理技术
随着 gpt-oss 等先进逻辑推理模型所生成 Token 的数量指数级增长,对计算基础设施的需求也大幅增加。NVIDIA Blackwell 驱动的专用 AI 工厂能够满足这一需求,该架构旨在提供超高性能推理所需的规模、效率和投资回报。
NVIDIA Blackwell 包含 NVFP4 4 位精度等创新技术,可在大幅降低功耗和显存需求的同时,实现极高的推理效率和准确性。这使得实时部署万亿参数级的大语言模型 (LLM) 成为可能,进而为企业创造数十亿美元的价值。
帮助全球数百万 AI 构建者实现开放式开发
NVIDIA CUDA 是全球广泛使用的计算基础设施。无论是在强大的NVIDIA DGX Cloud平台,还是NVIDIA GeForce RTX和NVIDIA RTX PRO驱动的 PC 和工作站,用户都可以任意部署和运行 AI 模型。
截至目前,NVIDIA CUDA 的下载量已超过 4.5 亿次。庞大的 CUDA 开发者社区现已能够使用这两个最新模型,并在其自身使用的 NVIDIA 技术栈上运行。
为进一步推动软件开源,OpenAI 与 NVIDIA 还携手顶级开源框架提供商,为 FlashInfer、Hugging Face、llama.cpp、Ollama 和 vLLM 等框架以及NVIDIA Tensor-RT LLM等库提供模型优化方案,使开发者能够选择自己常用的框架进行开发。
建立在开源基础上的长期合作
新发布的模型展现了 NVIDIA 的全栈技术如何将全球前沿的 AI 项目带给尽可能广泛的用户群体。
这个故事可追溯到 NVIDIA 与 OpenAI 的初期合作。2016 年,黄仁勋亲自将首台 NVIDIA DGX-1 AI 超级计算机送至 OpenAI 位于旧金山的总部。
自那时起,两家公司就一直共同推动 AI 技术的边界,为用户提供大规模训练所需的核心技术与专业知识。
如今,全球 250 个国家 / 地区共有 650 万开发者正在使用 900 多种 NVIDIA 软件开发套件和 AI 模型进行开发,这一数字仍在持续增长。通过对 OpenAI 的 gpt-oss 模型进行 NVIDIA Blackwell 和 RTX GPU 适配优化以及推出丰富的软件堆栈,NVIDIA 正在为这些开发者提供更加快速、更具有经济效益的先进 AI 技术。
关注
14文章
5343浏览量
106782免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com