/ ai资讯

摆脱依赖英伟达!OpenAI首次转向使用谷歌芯片

发布时间:2025-07-02 05:46:17

本站报道(文/李弯弯)近日,据知情人士透露,OpenAI近期已开始租用谷歌的张量处理单元(TPU),为旗下ChatGPT等热门产品提供算力支持。这一举措不仅标志着OpenAI首次实质性地使用非英伟达芯片,更显示出其正在逐步摆脱对英伟达芯片的深度依赖,在算力布局上迈出了重要战略调整的一步。

OpenAI依赖英伟达GPU的算力支持

在人工智能飞速发展的当下,OpenAI作为行业领军者,对算力的需求呈现出爆发式增长。以OpenAI推出的模型为例,当推出参数规模达1750亿的GPT - 3模型时,其训练消耗的算力相当于30万颗CPU全年不间断运行。这种指数级的算力需求增长,在2024年达到新高度,谷歌Gemini、百度文心一言4.0等多模态大模型的训练算力需求较上一代提升5 - 8倍,单个模型训练成本突破千万美元大关。

在此之前,英伟达的GPU一直是OpenAI开展模型训练以及推理计算工作的核心依赖。英伟达GPU凭借其强大的性能,在AI板块占据着主导地位,成为众多科技企业进行AI研发的首选。OpenAI作为英伟达GPU的重要大客户,长期通过与微软和甲骨文的合作获取英伟达芯片,用于模型训练与部署。

英伟达数据中心级GPU虽性能卓越,但在高负荷运行场景下也面临诸多问题。其实际使用寿命通常为1到3年,高强度工作负载会使芯片老化加速,超高功耗压力也直接缩短了芯片寿命,且故障率随使用时间增加而上升。随着AI技术的持续发展和模型复杂度的不断提升,OpenAI对算力的需求愈发迫切,同时也在寻求更具性价比和可持续性的算力解决方案。

谷歌AI芯片展现出媲美英伟达B200芯片的实力

此次OpenAI租用谷歌TPU,无疑是在算力布局上的一次重大尝试。谷歌在年度云大会上正式发布的第七代TPU——Ironwood,堪称AI芯片领域的“性能怪兽”。这款专为推理设计的AI加速器,是谷歌迄今为止性能最强、可扩展性最高的定制AI芯片。与2018年发布的初代TPU相比,Ironwood的推理性能提升了惊人的3600倍,效率提升了29倍,这一性能飞跃使其足以与英伟达的B200芯片相媲美,甚至在某些方面略胜一筹。

Ironwood在多个关键指标上表现卓越。功耗效率方面,相比第六代TPU Trillium,实现了2倍的提升,比初代Cloud TPU高出近30倍,谷歌的液冷解决方案和优化的芯片设计,使其在持续、繁重的AI工作负载下,能维持高达标准风冷两倍的性能。

高带宽内存(HBM)容量上,Ironwood芯片搭载了高达192GB的显存,是Trillium的6倍,能够处理更大的模型和数据集,减少频繁数据传输的需求,进而提高性能。HBM带宽提升到了7.2Tbps,是Trillium的4.5倍,极高的带宽确保了快速的数据访问,对现代AI中常见的内存密集型工作负载至关重要。

芯片间互连(ICI)带宽增强,双向带宽已增加到1.2Tbps,是Trillium的1.5倍,这种芯片之间更快的通信,有助于大规模高效的分布式训练和推理。

对于谷歌Cloud客户,Ironwood可根据AI工作负载需求提供两种规格——256芯片或9216芯片。每个单独的芯片峰值算力达4614TFLOPs,当扩展到每个pod 9216个芯片时,总计达到42.5Exaflop,其算力是世界上最大的超级计算机El Capitan的24倍以上。

总结

OpenAI租用谷歌AI芯片这一举措,无论是对OpenAI自身,还是对整个AI芯片市场,都具有深远意义。对OpenAI而言,这有助于其摆脱对单一芯片供应商和数据中心的高度依赖,在算力布局上获得更大的灵活性和自主性,降低算力成本,为业务的持续扩展提供有力支撑。对于AI芯片市场,谷歌TPU凭借其强大的性能和成本优势,有望打破英伟达GPU一家独大的局面,促进市场的多元化竞争,推动AI芯片技术的不断创新和发展。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com