《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
本文链接:https://kx.umi6.com/article/19522.html
转载请注明文章出处
相关推荐
.png)
换一换
手机市场Q3众生相:AI Phone竞争加速,苹果创新高直逼三星
2024-10-17 16:11:20
黄仁勋又烧了一把火
2025-05-20 15:47:04
华为兑现了五年前的阳谋
2025-05-10 07:02:28
426 文章
79883 浏览
24小时热文
更多

-
2025-07-19 14:57:21
-
2025-07-19 14:56:08
-
2025-07-19 14:55:01