首页 / ai资讯

通往AGI之路道阻且长:为未来智能筑牢算力基础

发布时间:2025-11-30 02:45:58

倘若通往通用人工智能 (AGI) 的道路

与人类自身发展历程如出一辙,

这将意味着什么?

Arm 工程部机器学习 (ML) 技术副总裁兼院士 Ian Bratt 认为,这种可能性并非空穴来风。在生命早期,人类大脑会从感知外界逐步进阶到语言表达,继而迈向逻辑思考与规划能力。这一过程被称为神经可塑性曲线。Bratt 指出,人工智能 (AI) 正沿着一条类似的路径演进,且当前已处于“认知能力的临界点”。

如今,我们正亲眼见证这一演进过程。当前的 AI 模型能力已今非昔比:它们既能模拟推理过程、完成复杂任务,又能处理文本、视觉与音频信息,其中许多模型已融入日常,嵌入各类常用工具与系统之中。随着 AGI 日趋成熟,其应用将覆盖云服务器、移动设备、交通工具及工业系统等多个领域。这就要求计算平台具备高效扩展能力,能够在任何需要的场景下实现智能运行。

为厘清未来发展方向,麻省理工科技评论洞察 (MIT Technology Review Insights) 与 Arm 联合发布《通往 AGI 之路》报告,深入探讨了未来的前行路径,以及为何这条路径或许会比我们预期的更贴近人类自身发展规律。该报告汇集了 AI 研究与治理领域前沿人物的洞见,梳理了未来面临的战略挑战与机遇。

AGI:看似近在咫尺,实则道阻且长

据非营利组织 AI Impacts 牵头的全球综合预测显示,AI 系统最快或于 2028 年开始实现 AGI 领域的关键里程碑。这些能力涵盖问题解决、目标导向推理,乃至无需辅助便能在特定任务中超越人类表现。

然而,即便是如今最尖端的模型,在适应性方面仍力有不逮。正如《通往 AGI 之路》报告中所指出的,这些模型在空间推理、运动控制、社会感知与创造力等领域仍存在明显短板。真正的 AGI 需要弥合这些鸿沟,并探索在不同系统中处理、传递与扩展智能的全新路径。

智能进阶,架构效率是关键

AGI 的发展进程正在加速,但随之而来的成本也水涨船高。2010 年之前,AI 的算力需求每 21 个月才会翻倍;而随着深度学习的崛起,这一周期已缩短至每 5.7 个月翻一番。模型规模扩大的同时,对算力的渴求也愈发旺盛。据估算,未来 AI 级工作负载的能源需求或将突破 20 太瓦,这一数值已逼近当前全球的总发电量。

正如 Bratt 所言:“若我们期望抵达那个万物皆实现认知增强的遥远未来,算力必须迎来阶跃式的爆发增长。”要满足这一需求,不能只追求原始运算速度,更需通过架构革新来优化延迟、带宽与能效。

异构计算:通往 AGI 的务实之道

报告强调,实现 AGI 不必拘泥于单一处理器类型,异构计算才是兼具可扩展性与平衡性的解决方案。这种模式整合了 CPU、GPU、NPU 及各类加速器,每种组件均针对特定 AI 任务优化调校。它能让计算在最适宜的场景中进行,无论是端侧、边缘侧,还是云端。

在全球科技生态中,Arm 计算平台已为数十亿台互联设备提供核心算力支撑,其具备的能效优势、性能表现与扩展能力,可满足 AI 技术栈各层级实现智能性的需求。例如,2025 年出货到头部超大规模云服务提供商的算力中,将有近 50% 是基于 Arm 架构。此外,Arm 技术还赋能全球范围内的智能手机、交通工具及工业系统实现智能性,不仅降低了延迟,保障了数据隐私,还大幅削减了带宽成本。

软件与标准:开启新浪潮

仅靠硬件并不足矣。AGI 还需“协同调度”能力,即在不同计算环境中管理众多复杂、分布式的 AI 工作负载。这意味着需要依托软件框架、调度工具及开放标准,让 AI 模型具备适应、可扩展与可互操作的能力。

报告提出,AI 系统需具备环境感知能力与动态分布式部署能力。开发者对平台的要求是,无需重写代码,就能简化多种芯片类型的开发流程。而生态系统的协同合作,正是实现这一愿景的核心所在。

Arm 的路径已与这一方向高度契合:一方面推动开发者更多地使用 AI 技术;另一方面将 Arm 计算平台打造成主流 AI 框架的可靠后端。通过这两大举措,让数十亿基于 Arm 架构的系统能高效运行推理工作负载,最终推动 AI 技术更为普及。

更智能的未来,根基必须坚实

未来 AI 的突破性进展,将取决于我们当下所做出的架构选择。Arm 正致力于构建核心根基,让 AI 得以负责任、高效率地演进、拓展,并释放全部潜力。Arm 是未来 AI 的基石。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com