1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

5月30日,华为推出参数规模达7180亿的盘古Ultra MoE模型,这是首个全流程在昇腾AI计算平台上训练的准万亿MoE模型。盘古团队采用Depth-Scaled Sandwich-Norm稳定架构及TinyInit小初始化方法,在昇腾平台上完成了超过18TB数据的长期稳定训练。华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。基于5月初发布的预训练系统加速技术,华为团队通过多项技术创新,包括自适应流水掩盖策略、算子执行序优化、Host-Bound降低及EP通信掩盖提升、内存优化策略开发、数据重排实现DP间Attention负载均衡及昇腾亲和算子优化,使万卡集群预训练MFU从30%提升至41%。

原文链接
本文链接:https://kx.umi6.com/article/19524.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
华为 × 云南交投发布“绿美通道・交通大模型”,实现通用与智能算力融合升级
2025-07-16 07:56:47
华为推出DeepSeek训/推超融合一体机
2025-02-17 10:53:59
传华为计划重新设计AI芯片:ASIC转向GPGPU 正面硬罡NVIDIA
2025-07-12 13:53:16
华为发布准万亿模型盘古Ultra MoE
2025-05-30 17:00:15
黄仁勋称华为是中国最强大的科技公司
2025-03-22 16:26:58
23999元起,鸿蒙「折叠屏」电脑来了!展开比手机还薄
2025-05-19 18:23:10
DeepSeek算力卡脖子,高校AI研究遇瓶颈?华为联合15校给出最强解法
2025-02-13 10:56:28
湖北宜化与华为签署全面合作框架协议 双方将围绕人工智能大模型、智能工厂等领域建立全面合作
2025-03-14 12:10:30
华为宣布开源盘古 7B 稠密和 72B 混合专家模型
2025-06-30 09:40:01
华为申请注册“MATEROBOT”商标
2025-03-17 00:11:30
华为在北京成立引望智能技术公司 注册资本1亿
2025-02-19 17:54:31
科大讯飞联合华为发布全新升级星火一体机,支持讯飞星火及 DeepSeek 双引擎
2025-03-03 10:17:44
华为鸿蒙电脑:一台非Windows 国产电脑的诞生
2025-05-08 20:40:32
24小时热文
更多
扫一扫体验小程序