近日,摩尔线程正式发布PyTorch深度学习框架的MUSA扩展库——Torch-MUSA v2.7.0,新版本在功能集成、性能优化与硬件支持方面实现进一步突破。Torch-MUSA在短短一个月内,连续完成v2.5.0和v2.7.0两次版本更新,充分体现了摩尔线程在MUSA生态建设上的持续投入与快速迭代能力。
▼Torch-MUSA开源地址:
https://github.com/MooreThreads/torch_musa
自v2.5.0起,Torch-MUSA版本号已与PyTorch主版本号保持同步,便于开发者进行版本识别与管理。新版本进一步集成muSolver与muFFT等计算加速库,显著提升复杂计算任务的执行效率;同时新增对统一内存设备(Unified Memory)的UMM支持,有效优化内存使用效率。
此外,新版本继续保持与最新MUSA SDK的兼容性,支持使用MUSA SDK 4.2.0至4.3.0及更高版本进行编译。目前Torch-MUSA专属支持的算子总数已超过1050个,系统在性能与稳定性方面均实现进一步提升,为大模型训练与推理提供了更高效、更可靠的底层支持。
v2.7.0版本主要更新内容
新增特性
▼动态双精度转换(Dynamic Double Cast)
用户可通过设置环境变量export TORCH_USE_MUSA_DOUBLE_CAST=1,开启Float64数据类型算子的动态转换功能,torch_musa将使用float32作为计算数据类型。
▼分布式检查点(Distributed Checkpoint)
支持从多个rank并行加载和保存模型,显著加速检查点的保存与加载过程。目前已支持分布式检查点的异步保存功能。
功能增强
▼新增Poisson、binomial、_standard_gamma、_sample_dirichlet、vdot、upsample(1d、2d、3d、with aa)、flash_attention、transformer_encoder_layer 等多个实用算子,MUSA专属支持的算子总数突破1050个。
▼通过升级PyTorch底层支持,torch.compile与AOTInductor功能进一步增强;
▼默认启用TF32计算模式,提升浮点运算效率;
▼优化性能分析工具Kineto的稳定性,并将其适配版本升级至2.7.0;
▼继续优化FSDP2流水线并行策略,进一步降低内存占用。
v2.5.0版本主要更新内容
新增特性
▼新增muFFT与muSolver库集成,大幅扩展计算能力;
▼在面向边缘计算的SoC设备中支持统一内存管理,基于Arm 架构的UMA(统一内存寻址)设计,实现GPU与CPU共享同一物理内存空间,显著降低模型运行过程中的内存开销,具体包括:
消除GPU端重复内存分配;
减少主机与设备间的内存拷贝;
GPU可直接访问由CPU分配器申请的内存空间。
算子扩展与性能优化
▼新增支持包括ilshift、irshift、replication_pad1d_bwd、angle、ctcLossTensor、ctcLossTensorBwd、logit、amin/amax/prod.dim_int、glu_bwd等多个算子;
▼新增基础 Sparse(CSR) 操作支持;
▼扩充量化算子支持范围;
▼修复torch.norm形状错误问题;
▼支持reduce_sum的uint8输入与int64输出;
▼C 扩展新增支持tensor.is_musa()方法;
▼修复空输入下argmax/argmin的异常行为;
▼优化var/std、pad、convolution3d、layer_norm等操作的执行效率。
系统功能增强
▼开放torch.musa.mccl.version()接口;
▼支持getCurrentMUSABlasHandle与getCurrentMUSABlasLtHandle;
▼优化FSDP2流水线并行策略,降低训练内存占用。
未来计划
Torch-MUSA将继续跟进PyTorch的版本更新,计划下一版本支持PyTorch 2.9.0,并进一步优化性能与功能,持续构建和完善基于MUSA架构国产全功能GPU的深度学习生态。
▼ 关于摩尔线程
摩尔线程以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。
我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。
关注
89文章
38046浏览量
296173免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:bangqikeconnect@gmail.com