《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
本文链接:https://kx.umi6.com/article/19522.html
转载请注明文章出处
相关推荐
换一换
华为鸿蒙电脑:一台非Windows 国产电脑的诞生
2025-05-08 20:40:32
中国信通院联合华为、三大运营商等成立“先进存力AI推理工作组”
2025-08-26 21:53:20
泰国政府携手华为发展人工智能
2025-05-29 21:40:42
华为正式发布AI推理创新技术UCM 计划于9月正式开源
2025-08-12 15:23:09
华为首款AI情绪陪伴玩具售罄缺货
2025-11-28 16:37:48
华为启动全球教育医疗伙伴联盟,倡议推动 AI 诊疗商业模式落地
2025-07-10 23:28:33
华为AI新技术揭晓!英伟达曾花50亿收购“同款”
2025-11-21 20:41:32
61岁退休后,华为海思创始总裁成了复旦北大清华老师
2025-10-18 14:34:04
华为的「荣耀」
2025-10-30 15:47:28
华为发布盘古大模型5.5
2025-06-20 17:09:56
华为云发布CloudMatrix 384超节点 已通过昇腾云正式商用
2025-04-14 17:41:08
余承东被任命为华为公司IRB主任
2025-09-29 21:15:03
消息称华为即将发布 AI 推理领域突破性成果:降低对 HBM 依赖,提升国内大模型性能
2025-08-10 09:43:09
584 文章
358328 浏览
24小时热文
更多
-
2025-12-08 23:53:52 -
2025-12-08 22:52:38 -
2025-12-08 22:51:57