/ ai资讯

昆仑芯超节点产品推出,大模型训推任务性能跨越式提升

发布时间:2025-04-25 19:46:40

开年后,随着DeepSeek席卷千行百业,昆仑芯率先适配、业内首家单机部署满血版展示卓越性能,并在互联网、科研、金融等领域实现规模部署,一系列进展引发广泛关注。刚刚落幕的Create2025百度AI开发者大会上,昆仑芯作为底层算力核心被高频提及,三万卡集群点亮振奋人心,昆仑芯超节点也在大会上正式发布。

自ChatGPT问世,大模型参数快速增长,单卡显存无法容纳越来越大的模型参数,大模型对AI算力系统的并行通信能力提出越来越高的要求;同时开源MoE模型在多专家并行过程中也需要更高的通信效率。DeepSeek-V3/R1加速产业落地,AI算力集群对系统可扩展能力的需求变得空前迫切。

基于对大模型演进趋势及算力需求的前瞻预测,昆仑芯团队率先布局、潜心研发,面向大规模算力场景推出超节点新品,为AI算力集群性能优化和效率提升提供一套全栈解决方案。

1

全互联通信带宽提升8倍

训推性能跨越式提升

通过硬件架构创新,昆仑芯超节点突破传统单机8卡产品形态,超高密度设计使得单柜可容纳32/64张昆仑芯AI加速卡。单柜内卡间实现全互联通信,带宽提升高达8倍,一个机柜的算力最高可达到传统形态下8台8卡服务器,实现对MoE大模型单节点训练性能5-10倍、单卡推理效率13倍的大幅提升。

2

整柜功率可支持到120kW

大幅降低PUE

在能耗和散热方面,昆仑芯积极响应节能降耗政策,采用高效的冷板式液冷方式进行系统散热,整柜功率可支持到120kW,大幅降低数据中心的PUE(Power Usage Effectiveness,数据中心消耗的所有能源与IT负载消耗的能源的比值)。不仅如此,昆仑芯超节点支持液冷系统的漏液检测,可及时针对液冷故障进行预警、告警、修复等,最大化提高整机柜系统无间断稳定运行效率。

3

机柜间IB/RoCE通信

高带宽、低延迟

当前,各级政府、众多行业和头部企业集中发力,正在加快建设一批超大规模智算中心。针对集群拓展需求,昆仑芯超节点机柜间支持IB/RoCE通信,可实现跨柜高带宽、低延迟的数据传输,支持万卡以上规模的智算集群构建。

4

自研XPU Link

兼容主流scale-up通信标准

昆仑芯自研互联通信协议XPU Link,秉承一贯的“共生共赢”发展理念,昆仑芯XPU Link兼容业界主流scale-up通信标准,与上下游合作伙伴共建超节点行业生态,携手推动国产AI算力在超节点集群中的规模部署和产业应用。

颠覆式的大模型和AI应用加速推动AI步入产业落地新阶段。AI下半场,昆仑芯凭借在芯片架构、集群系统、软件生态领域的深厚积累和全栈优势,竞争实力越发凸显。

目前,昆仑芯已实现三代产品大规模部署落地,通过与数百家客户紧密合作,将AI算力输送到互联网、运营商、智算、金融、能源电力、汽车等等千行万业,惠及数以亿计的终端用户。面向未来,昆仑芯将持续深耕AI芯片技术研发和产业应用,为我国AI产业发展注入源源不断的澎湃动力。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com