3月17日,摩尔线程宣布开源两大AI框架MT-MegatronLM与MT-TransformerEngine。MT-MegatronLM支持dense、多模态及MoE模型的高效混合并行训练,而MT-TransformerEngine专注于Transformer模型的训练与推理优化。两大框架采用FP8混合训练策略和高性能算子库muDNN与MCCL,显著提升训练效率与稳定性。在全功能GPU集群上,Llama3 8B模型训练的MFU可达90%以上。此外,框架具备异常恢复机制、完整的生态兼容性及多种优化策略,如Dual Pipe并行策略和异步checkpoint。摩尔线程还计划引入更多功能,持续优化框架性能。开源地址已公布,助力开发者构建更强大的AI技术栈。
原文链接
本文链接:https://kx.umi6.com/article/15593.html
转载请注明文章出处
相关推荐
.png)
换一换
超越DeepSeek,中国开源「集团军」正重塑全球AI生态
2025-04-28 13:51:06
当FPGA遇上开源,要变天了
2025-04-27 15:25:40
Anthropic 开源“思维追踪”工具,可视化揭秘 AI 内部逻辑
2025-05-30 14:54:04
412 文章
66316 浏览
24小时热文
更多

-
2025-07-19 15:54:36
-
2025-07-19 15:54:26
-
2025-07-19 14:57:21