/ ai资讯

海光DCU率先展开文心系列模型的深度技术合作 FLOPs利用率(MFU)达47%

发布时间:2025-07-01 19:46:31

海光DCU实现文心4.5模型高效适配; FLOPs利用率突破47%。

2025年6月30日,在百度文心4.5系列大模型正式开源当日,海光信息技术股份有限公司宣布其深度计算单元(DCU)率先完成对该系列模型的深度技术适配,预训练模型FLOPs利用率(MFU)达到47%,在多个文本与多模态基准测试中取得SOTA水平。此次合作标志着国产算力基础设施与大模型技术的协同创新进入新阶段。

技术突破:异构计算架构赋能MoE模型高效训练

海光DCU基于GPGPU通用架构,通过飞桨深度学习框架对文心4.5系列模型实现全流程优化,涵盖47B/3B混合专家(MoE)模型及0.3B稠密参数模型的高效训练、推理与部署。其创新性体现在:

  • 多模态异构计算:针对MoE架构设计动态负载均衡策略,显存带宽利用率提升30%

  • 混合精度优化:采用FP8技术降低显存占用,使424B总参数量模型的训练效率接近国际一线水平

  • 生态兼容性:依托DTK软件栈实现与文心模型的无缝对接,适配周期缩短50%

行业价值:自主可控技术体系加速AI落地

此次合作验证了国产DCU在高性能计算领域的三大优势:

  1. 效能领先:47%的MFU利用率较行业平均水平提升15%以上

  2. 多模态支持:文心4.5的跨模态理解能力在DCU平台上实现无损迁移

  3. 产业链安全:从芯片、框架到模型的完整技术自主权,为金融、制造等行业提供可靠算力选择

海光DCU与文心模型的深度适配,证明了国产算力支撑前沿AI创新的能力。未来将持续优化千亿级参数模型的训练效率,推动中国智能算力生态建设。

  • DCU DCU 关注

    关注

    0

    文章

    15

    浏览量

    2832

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

如有疑问请发送邮件至:bangqikeconnect@gmail.com