《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
本文链接:https://kx.umi6.com/article/19522.html
转载请注明文章出处
相关推荐
换一换
华为:将向开源欧拉社区贡献支持超节点的操作系统插件代码
2025-11-14 18:10:40
华为 × 云南交投发布“绿美通道・交通大模型”,实现通用与智能算力融合升级
2025-07-16 07:56:47
华为发布Flex:ai AI容器技术 实现单卡同时承载多个AI工作负载
2025-11-21 15:31:39
华为创造AI算力新纪录:万卡集群训练98%可用度,秒级恢复、分钟诊断
2025-06-10 13:48:32
黄仁勋又烧了一把火
2025-05-20 15:47:04
芯火三十年:破局而立
2026-01-05 18:25:05
时隔多年,AI芯片又是华为发布会主角了
2025-09-19 11:09:57
金山办公与华为联合发布 WPS 365 一体化 AI 办公解决方案
2025-09-12 21:19:08
华为UCM推理记忆管理技术正式开源
2025-11-05 16:17:45
华为发布AI推理技术UCM:降低HBM依赖 计划9月正式开源
2025-08-13 08:39:18
61岁退休后,华为海思创始总裁成了复旦北大清华老师
2025-10-18 14:34:04
华为全球悬赏300万元解决AI时代的存储难题
2025-12-26 18:58:07
华为即将发布AI推理领域突破性成果
2025-08-10 09:43:16
631 文章
430810 浏览
24小时热文
更多
-
2026-01-23 08:40:41 -
2026-01-23 06:34:26 -
2026-01-23 00:20:44