《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
本文链接:https://kx.umi6.com/article/19522.html
转载请注明文章出处
相关推荐
换一换
61岁退休后,华为海思创始总裁成了复旦北大清华老师
2025-10-18 14:34:04
余承东亲自招人!华为招募全球顶尖AI人才:提供业内有竞争力的薪酬
2025-10-21 07:18:58
华为、阿里押注“超节点”:不卷单卡性能 追求“系统效率”才是国产AI正解?
2025-10-04 09:59:02
每2秒吃透一道高数大题!华为终于揭秘准万亿MoE昇腾训练系统全流程
2025-05-30 16:54:34
华为又开源了个大的:超大规模MoE推理秘籍
2025-07-01 13:54:16
中国AI高速路,华为给出开源开放方案
2025-09-24 17:46:56
华为将原全屋智能升级为鸿蒙智家
2025-03-20 15:43:44
华为发布三款AI SSD系列新品:最高245TB 随机写高达1500K IOPS
2025-08-27 18:07:34
华为发布以AI-Centric全面升级的AI WAN解决方案
2025-10-15 21:41:25
黄仁勋称华为是中国最强大的科技公司
2025-03-22 16:26:58
华为推出 DeepSeek 训 / 推超融合一体机,适配 V3&R1 及蒸馏模型
2025-02-17 10:47:33
比亚迪华为联手,攻破传统汽车最后堡垒
2025-02-25 12:51:58
华为等头部厂商加速布局 数据库产业迎来AI革命
2025-06-25 20:51:14
525 文章
262609 浏览
24小时热文
更多
-
2025-10-24 09:34:47 -
2025-10-24 09:33:43 -
2025-10-24 09:32:35