/ 分享百科

英伟达发布新一代AI平台“薇拉·鲁宾”Vera Rubin

发布时间:2026-01-06 15:03:15

人工智能领域巨头英伟达(Nvidia)于周一在拉斯维加斯举办的2026年国际消费电子展(CES)上,宣布推出新一代“薇拉·鲁宾”(Vera Rubin)超级芯片。该芯片是英伟达全新“鲁宾平台”(Rubin Platform)的六大核心芯片之一,单颗处理器集成了1颗薇拉(Vera)CPU与2颗鲁宾(Rubin)GPU。



英伟达将鲁宾平台定位为“智能体AI”(Agentic AI)、高级推理模型及“混合专家模型”(Mixture of Experts, MoE)的理想运行载体。其中,混合专家模型通过整合多个“专家AI”模块,可根据用户提出的问题,自动将查询请求分配至最适配的“专家”模块进行处理。


英伟达首席执行官黄仁勋在声明中表示:“鲁宾平台的推出恰逢其时——当前AI训练与推理的算力需求正呈爆发式增长。”


“我们秉持每年推出新一代AI超级计算机的节奏,此次通过六款全新芯片的深度协同设计,鲁宾平台将AI技术推向了新的前沿领域。”


除薇拉CPU与鲁宾GPU外,鲁宾平台还包含另外四款网络与存储芯片,分别是:英伟达NVLink 6交换机、英伟达ConnectX-9超级网卡(SuperNIC)、英伟达BlueField-4数据处理单元(DPU)以及英伟达Spectrum-6以太网交换机。


这些核心组件可进一步整合为英伟达“薇拉·鲁宾NVL72服务器”,该服务器将72颗GPU集成于单一系统中;若将多台NVL72服务器联动,则可构建出英伟达DGX SuperPOD——一款具备海量算力的AI超级计算机。这类大型系统正是微软、谷歌、亚马逊等超大规模科技公司,以及社交媒体巨头Meta斥资数十亿美元争相布局的核心算力基础设施。


英伟达同时重点推介了其AI存储解决方案“英伟达推理上下文内存存储”(Nvidia Inference Context Memory Storage)。该公司表示,对于参数规模达万亿级、需多步推理的AI模型而言,此类存储方案是实现数据存储与共享的关键支撑。


上述所有技术设计,均旨在让鲁宾平台的能效超越英伟达上一代“Grace Blackwell”产品。


据英伟达介绍,与Blackwell系统相比,鲁宾平台训练同等规模的混合专家模型时,所需GPU数量可减少75%(即仅需原来的1/4)。


GPU数量的减少意味着企业可将多余硬件资源调配至其他任务,进而提升整体算力利用效率。此外,英伟达称鲁宾平台还能将“推理token成本”降低90%(即仅为原来的1/10)。


在AI模型中,“token”可代表单词、句子片段、图像、视频等信息单元。模型通过“token化”(tokenization)过程,将复杂信息拆解为更易处理的token,从而实现高效运算。


然而,token处理过程对资源消耗极高,随之而来的是巨大的能源需求,尤其在运行超大规模AI模型时更为明显。因此,与前代产品相比,鲁宾平台在token成本上的降低,有望显著优化用户的“总拥有成本”。


英伟达表示,目前已与合作伙伴开展鲁宾平台的样品测试,且该平台已进入全面量产阶段。


凭借在芯片领域的领先优势,英伟达已成为全球市值最高的公司,当前估值约4.6万亿美元。2025年10月,其市值曾一度突破5万亿美元,但受AI领域投资放缓担忧及AI生态泡沫恐慌影响,估值回落至当前水平。


与此同时,英伟达面临的竞争压力也在加大:竞争对手超微半导体(AMD)推出了自家“Helios机架式系统”,直接对标英伟达NVL72;此外,英伟达的客户也开始入局芯片研发,形成“客户竞争”态势。


2025年10月,谷歌与亚马逊共同宣布,人工智能公司Anthropic将扩大对双方定制化处理器的使用——Anthropic此前已采用这些处理器为其Claude大模型提供算力支撑,且谷歌与亚马逊均持有该公司股份。


据The Information报道,谷歌正与Meta及其他云服务公司洽谈合作,计划将其自研芯片应用于这些公司的数据中心。


尽管竞争加剧,但短期内无论是AMD还是英伟达的客户,均难以撼动英伟达在AI芯片领域的霸主地位。若英伟达能持续保持“每年推出新一代产品”的节奏,竞争对手想要实现赶超将愈发困难。


免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com