《科创板日报》30日消息,华为发布参数规模达7180亿的新模型——盘古Ultra MoE,该模型全流程基于昇腾AI计算平台训练。华为同步发布了盘古Ultra MoE的模型架构与训练方法技术报告。在训练方法上,华为首次在昇腾CloudMatrix 384超节点上实现大稀疏比MoE强化学习后训练框架,推动RL后训练进入超节点集群时代。此外,近期推出的盘古Pro MoE大模型(参数量720亿,激活160亿参数量)于2025年5月的大模型榜单SuperCLUE中,位列千亿参数量以内国内榜首。
原文链接
本文链接:https://kx.umi6.com/article/19522.html
转载请注明文章出处
相关推荐
换一换
华为发布新一代绿色AI站点和GW级AIDC解决方案
2026-03-03 08:46:51
时隔多年,AI芯片又是华为发布会主角了
2025-09-19 11:09:57
国产手机卖到1万6!华为新旗舰,搭载麒麟9030
2025-11-25 23:10:46
华为发布以AI-Centric全面升级的AI WAN解决方案
2025-10-15 21:41:25
华为创造AI算力新纪录:万卡集群训练98%可用度,秒级恢复、分钟诊断
2025-06-10 13:48:32
华为 × 云南交投发布“绿美通道・交通大模型”,实现通用与智能算力融合升级
2025-07-16 07:56:47
华为计算:KunLun AI Space 基于昇腾实现 DeepSeek V3.1 FP8 推理,成本减半
2025-10-28 21:06:36
余承东被任命为华为公司IRB主任
2025-09-29 21:15:03
中国AI耳机TOP10出炉:华为第二 第一你可能没听过
2025-08-23 20:05:41
值得买:与华为的合作目前已取得几项重要成果
2025-10-27 10:57:33
黄仁勋:任何轻视华为和中国制造的人都极其天真
2025-07-16 17:11:28
华为发布全新鸿蒙智能体
2025-06-20 16:01:30
徐直军:华为对为人工智能发展提供充裕算力充满信心
2025-09-18 15:57:24
664 文章
477275 浏览
24小时热文
更多
-
2026-03-09 21:13:27 -
2026-03-09 20:09:26 -
2026-03-09 20:09:18