近日,在2026移动云大会期间,中国移动举办了"强基铸算・智启新程——全国一体化算力网技术创新分论坛"。论坛聚焦AI时代算力基础设施建设的核心命题,围绕硬核能力、网络融智、全域保障等方向,正式发布了"全国一体化算力网技术创新体系",集中展示了中国移动在算力底座领域的最新技术突破和落地成果。中国移动副总经理李慧镝出席论坛并发表讲话,有关政府部门、行业机构及领军企业代表共同参会。
当前,大模型训练和推理对算力的需求正在快速攀升。一个千亿参数模型的单次训练,动辄需要数千张GPU连续运行数周,算力消耗以千瓦时计。而在推理侧,随着AI应用从云端向边缘和终端延伸,算力需求变得更加分散和动态。
传统的数据中心架构以集中式计算为主,面对AI时代"大训练、大推理、大调度"的新特征,已经显现出瓶颈。算力利用率不高、跨域调度延迟大、网络带宽跟不上数据搬运速度,这些问题正在制约AI产业的规模化落地。
中国移动此次发布的技术创新体系,正是针对这些痛点给出的系统性回答。
论坛上发布的技术创新体系涵盖了算力基础设施的多个层面。
在算力硬件侧,中国移动持续推进自研芯片和服务器的迭代,重点突破了智算中心的高密度计算和能效优化问题。通过自研DPU等关键部件,实现了计算、存储、网络的硬件级卸载和加速,单机柜算力密度和能效比均有显著提升。
在算力调度侧,中国移动构建了跨区域、跨架构的统一算力调度平台,能够将通用算力、智能算力和超算算力进行统一纳管和弹性分配。这套调度系统的核心能力在于"算网融合"——不只是调度计算资源,而是把网络带宽、存储IO、任务优先级全部纳入决策,实现算力的最优匹配。
李慧镝在讲话中提到,中国移动正在形成从底层芯片到上层调度的全栈技术能力,目标是让算力像水电一样"即取即用"。
算力再强,数据送不到也白搭。AI大模型训练中,数据搬运往往比计算本身更耗时。中国移动在论坛上重点展示了其在算力网络方面的进展。
核心成果之一是智算专网的规模化部署。通过400G/800G高速互联和智能路由技术,中国移动已经在多个省际节点之间建立了低延迟、高带宽的算力输送通道,端到端时延控制在毫秒级。这意味着,位于贵州的智算中心可以为长三角的AI企业提供近乎本地的算力体验。
另一个亮点是网络智能化。中国移动将AI能力注入网络本身,实现了流量的智能感知和动态调度。当某个节点算力紧张时,网络可以自动将任务引导到空闲节点,整个过程对上层应用透明。这种"网络即调度器"的思路,在国内运营商中走得比较靠前。
对于企业客户来说,算力好不好用是一回事,稳不稳定是另一回事。AI训练任务动辄跑几天甚至几周,中间断一次,损失的不只是时间,还有昂贵的GPU机时费。
中国移动在全域保障方面做了几件事。一是多活架构,核心算力节点实现了跨区域双活甚至多活,单点故障不影响业务连续性。二是智能运维,利用AI对算力集群进行健康度预测和故障预警,把被动响应变成主动预防。三是绿色节能,通过液冷技术和AI能效调度,智算中心的PUE值持续下降,部分节点已经做到1.2以下。
论坛上,多家行业领军企业和研究机构也分享了各自的实践。可以看出,全国一体化算力网的建设不是中国移动一家的事,而是需要芯片厂商、服务器厂商、AI框架开发者、行业用户共同参与。
中国移动的角色更像是"底座提供者"和"连接者"——把分散的算力资源聚起来,用网络连起来,用调度平台管起来,然后以服务的形式开放给千行百业。这种定位和云计算早期的IaaS模式有些类似,只不过这次的核心资源不是存储和计算,而是算力本身。
AI时代的算力基础设施建设,本质上是一场关于"如何让算力便宜、好用、可靠"的系统工程。中国移动这次发布的技术创新体系,覆盖了从硬件到网络到运维的全链条,方向是对的。
关注
8文章
7351浏览量
95071免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com