/ ai资讯

黄仁勋新年第一场演讲提了DeepSeek 黄仁勋:机器人领域迎来ChatGPT时刻

发布时间:2026-01-06 15:46:26

我们来看看英伟达首席执行官黄仁勋在CES 2026上发表的主题演讲。

黄仁勋新年第一场演讲提了DeepSeek

在当地时间1月5日黄仁勋在CES 2026上发表主题演讲,黄仁勋的新年首场演讲中提及DeepSeek:黄仁勋称开源模型成创新催化剂,Deepseek R1模型推动行业变革,Deepseek R1的出现让整个世界惊讶。黄仁勋还展示了包括DeepseekV3.2在内的三家中国开源模型;分别是Kimi K2、Qwen、DeepseekV3.2。黄仁勋认为目前全球涌现出多个开源模型,他们的性能越来越逼近领先的前沿大模型。而且表示在2025年行业最重要的改变之一就是开源模型真正起飞。


黄仁勋:机器人领域迎来ChatGPT时刻

英伟达首席执行官黄仁勋在主题演讲中表示机器人领域已迎来“ChatGPT 时刻”,并发布了一系列开源“物理 AI”模型。‌‌黄仁勋在演讲中还展示了全球合作伙伴为各行各业打造的全新机器人。新技术加速了整个机器人开发生命周期中的工作流程,以推动包括能够快速学习多种任务的"通专结合"型机器人在内的下一代机器人技术浪潮。

黄仁勋:AI超级芯片平台Rubin全面投产

黄仁勋一口气发布了多款与物理AI有关的开源模型,同时首次详细披露了新一代AI超级芯片平台Rubin的性能数据。黄仁勋表示,Rubin平台包含六款新芯片,分别是Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X超级网卡芯片、BlueField-4 DPU、Spectrum-6以太网交换机芯片。目前Rubin平台产品已全面投入生产。基于NVIDIA Rubin的产品则将于2026年下半年推出。

Rubin GPU的NVFP4(4位浮点数格式)推理算力为50PFLOPS,是Blackwell的5倍;NVFP4训练算力是35PFLOPS,是Blackwell的3.5倍;HBM4内存带宽22TB/s,是Blackwell的2.8倍,晶体管数量3360亿个,是Blackwell的1.6倍。与Blackwell平台相比,Rubin平台通过软硬件协同设计,将推理token成本降低10倍,将训练MoE模型(专家模型)所需的GPU数量减少4倍。

Rubin平台采用新的Vera Rubin NVL72。Vera Rubin NVL72的NVFP4推理和训练算力分别是3.6EFLOPS、2.5EFLOPS,分别是Blackwell的5倍和3.5倍。HBM4内存带宽1.6PB/s,是Blackwell的2.8倍,晶体管数量220万亿个,是Blckwell的1.7倍。黄仁勋表示,相比使用Blackwell NVL72,使用Rubin NVLink72去训练模型,其他条件相同的情况下,所需GPU数量是前者的1/4,思考输出的token数量则是10倍。

而对于2025年的总结,黄仁勋提到数据、AI助理(agent)、物理AI、开源模型等多个关键词。这些也是当下大热的领域。

此外,黄仁勋最看好的AI落地场景就是自动驾驶。在演讲中黄仁勋提到,未来十年,世界上很大一部分汽车将是自动驾驶或高度自动驾驶的。你期待吗?

  • 机器人 机器人 关注

    关注

    213

    文章

    30776

    浏览量

    220833

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com