此次战略合作充分发挥 Arm 在高能效计算领域的优势,将其与 Meta 在基础设施、AI 产品及开放技术方面的创新实力相结合,为全球数十亿用户提供更丰富、更普惠的 AI 体验
Meta 的基础 AI 软件技术(包括 PyTorch)现已完成 Arm 平台适配优化,其中 PyTorch 的 Executorch 运行时将采用 Arm KleidiAI 技术,助力 Meta 及全球开源社区实现“每瓦性能”最大化
近日,Arm 与 Meta 宣布一项战略合作项目,双方将围绕人工智能 (AI) 软件与数据中心基础设施两大核心领域,全面提升各计算层面的 AI 效率,为全球数十亿用户打造更丰富的体验。从驱动终端侧智能的毫瓦级设备,到训练全球最先进 AI 模型的兆瓦级系统,此次合作将推动 AI 覆盖多种计算类型、工作负载及使用体验,为 Meta 的全球平台提供核心支撑。
这份为期多年的合作伙伴关系,建立在两家公司长期推进的软硬件协同设计的基础之上,通过整合 Arm 在高能效 AI 计算领域的领先优势,与 Meta 在 AI 驱动产品、基础设施及开放技术方面的创新能力,最终实现 AI 性能与效率的显著飞跃。
Meta 基础设施负责人 Santosh Janardhan 表示:“从我们平台上的各类应用体验,到我们的自研设备,AI 正在改变着人们连接与创造的方式。通过与 Arm 的合作,我们能够高效地将这些创新成果带给超过 30 亿使用 Meta 应用和技术的用户。”
Arm 首席执行官 Rene Haas 表示:“AI 的下一个时代,将以规模化的高效率交付为核心特征。通过与 Meta 合作,我们正将 Arm 在“每瓦性能”领域的领先优势,与 Meta 的 AI 创新能力深度融合,让更智能、更高效的智能技术无处不在,覆盖从毫瓦到兆瓦的全场景应用。”
在云端实现 AI 规模化应用
Meta 的 AI 排序与推荐系统,为 Facebook 和 Instagram 等旗下应用的内容发现与个性化功能提供核心支持。该系统将采用基于 Arm Neoverse 的数据中心平台,相比 x86 系统,这一平台可实现更高性能与更低功耗。在整个基础设施架构中,Neoverse 还将助力 Meta 达成“每瓦性能对等”的目标,充分彰显 Arm 计算技术在超大规模场景下的能效优势与可扩展能力。
两家公司的紧密协作,针对 Arm 架构对 Meta 的 AI 基础设施软件栈进行了全面优化,覆盖编译器、函数库以及主流 AI 框架等关键组件。其中包括对 Facebook 通用矩阵乘法库 (FBGEMM) 与 PyTorch 等开源组件的联合调优,通过充分利用 Arm 的向量扩展技术与性能函数库,实现了推理效率与吞吐量方面的可量化提升。目前,这些优化成果也正贡献给开源社区,以进一步扩大其在全球 AI 生态系统中的影响力。
推动 AI 软件从云端到边缘的全面加速
此次合作还将深化双方在 AI 软件优化领域的协同,聚焦 PyTorch 机器学习框架、ExecuTorch 边缘推理运行时引擎及虚拟大语言模型 (vLLM) 数据中心推理引擎等三大方向。同时,双方将基于经 Arm KleidiAI 优化的 ExecuTorch 进行持续迭代,提升数十亿设备的运行效率。此次协作将显著简化 AI 模型部署流程,并大幅提升 AI 应用从边缘到云端的性能表现。
这些开源技术项目是 Meta 公司 AI 战略的核心支柱,支撑着从推荐系统到对话式智能等各类应用的开发与部署。双方将持续推进这些开源项目的技术优化,赋能全球数百万开发者基于 Arm 构建并部署高效 AI 解决方案,实现全场景智能覆盖。
共筑“AI 无处不在”的未来
从兆瓦级数据中心到基础 AI 软件,Arm 与 Meta 的合作是一场全栈式协作。双方将共同推动跨计算层面的 AI 规模化应用,为全球数十亿用户开启智能、高效且互联的全新体验时代。
关注
135文章
9466浏览量
386640免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com