标题:Bye,英伟达!华为NPU,跑出了准万亿参数大模型
正文:
现在,训练万亿参数大模型不再依赖英伟达,华为做到了!技术报告发布在arxiv.org/abs/2505.04519。
此前,训练万亿参数大模型面临负载均衡难、通信开销大等问题。华为盘古团队基于昇腾国产算力平台,完成了7180亿参数MoE模型的长期稳定训练,并通过多项系统优化技术显著提升效率。
团队从架构优化、负载均衡、通信瓶颈、硬件适配等方面逐一突破。例如,通过增加隐藏层大小、减少激活参数量,提高计算效率和推理吞吐量;采用TP-extend-EP技术优化通信开销;设计分级EP通信和自适应前反向掩盖策略,解决通信瓶颈。
此外,团队研发了EP组负载均衡损失算法,既不过度追求均衡,又减少通信成本。在6000+昇腾NPU集群上,模型算力利用率提升58.7%,达到30.0%。
实验表明,盘古Ultra MoE在多领域表现出色,如通用理解、数学推理、代码生成等。其专家差异化显著,输出由共享专家和路由专家共同贡献,保持平衡,提升整体表征能力。
这项突破标志着国产算力平台跻身全球领先行列,展现了中国科技自主创新的实力,未来将助力智能化转型,为科技进步贡献“中国智慧”。
原文链接
本文链接:https://kx.umi6.com/article/18298.html
转载请注明文章出处
相关推荐
.png)
换一换
大模型热度退潮,真正的技术创新者开始被「看见」
2025-06-20 17:06:44
硅基流动入驻阿里云云市场,核心 API 服务将全面接入百炼平台
2025-06-19 09:45:52
通义实验室新研究:大模型自己「扮演」搜索引擎,提升推理能力无需搜索API
2025-05-17 13:07:29
427 文章
81036 浏览
24小时热文
更多

-
2025-07-21 15:18:28
-
2025-07-21 14:20:17
-
2025-07-21 14:19:09