1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

华为盘古718B模型最新成绩:开源第二

金磊 发自 凹非寺
量子位 | 公众号 QbitAI

在最新一期的SuperCLUE中文大模型通用基准测评中,华为的openPangu-Ultra-MoE-718B(盘古718B)以出色表现位列开源模型第二名。本次测评从数学推理、科学推理、代码生成等六个维度评估了各模型的能力,共计1260道题目。

盘古718B拥有7180亿参数的MoE架构,其成功秘诀并非依赖数据量的堆砌,而是注重“会思考”的训练哲学。通过高质量数据和创新方法,该模型在复杂场景下的推理能力尤为突出。

核心亮点

1. 数据质量优先
团队在后训练数据构建中遵循“质量优先、多样性覆盖、复杂度适配”三大原则,设计了一套全流程方案。通过三重审核机制清理低质量样本,利用去重算法确保多样性,并通过量化任务难度提升复杂场景的表现。

2. 三阶段预训练策略
预训练分为通用、推理和退火三个阶段:
- 通用阶段:学习广泛的世界知识;
- 推理阶段:强化逻辑推理能力,引入高难度多步骤推理题库;
- 退火阶段:提升上下文处理能力,增加工具使用数据占比。

3. 缓解幻觉问题
团队引入“批判内化”机制,让模型不仅学习正确答案,还能评判解答优劣。这种方法显著减少了逻辑跳跃和信息遗漏等问题,提升了输出的可靠性。

4. 工具使用能力进化
通过升级版工具数据合成框架ToolACE,模型学会了在复杂交互中灵活调用多种工具。框架涵盖领域工具组合、交互式目标轨迹生成、多智能体对话生成等技术,极大提升了模型的实际应用能力。

5. 三步式后训练优化
团队采用渐进动态微调(PDFT)、强化学习(GSPO算法)和模型融合三种方法,进一步优化性能。最终通过黑盒优化整合多个版本的优势,打造出综合性能更强的模型。

总结

盘古718B的优异表现得益于系统性的技术创新,从数据构建到后训练优化,每一步都体现了对技术细节的极致追求。这不仅展示了华为的技术实力,也为行业树立了标杆。

参考链接:
[1] https://ai.gitcode.com/ascend-tribe/openpangu-ultra-moe-718b-model
[2] https://arxiv.org/abs/2501.17703
[3] http://arxiv.org/abs/2409.00920

原文链接
本文链接:https://kx.umi6.com/article/26056.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
过去一年,中国AI如何改变全球开源格局?
2026-01-22 13:56:28
中国AI开源模型下载量占比首次超过美国
2025-11-27 18:49:55
开放全栈!超越π0,具身智能基础大模型迎来真·开源,开发者狂喜
2025-09-08 13:58:15
倪光南院士:报告显示 80% 的美国 AI 创新企业使用中国开源模型
2025-11-14 11:53:25
昆仑万维发布并开源 Skywork-R1V 3.0,多模态推理能力逼近人类专家水平
2025-07-09 11:04:18
谷歌DeepMind高管公开邀请千问团队入职
2026-03-05 15:31:45
可玩转千余款游戏,英伟达联合斯坦福等研发 NitroGen 开源模型
2025-12-21 11:38:39
DeepSeek等开源模型,更“浪费”token吗?
2025-10-11 10:17:13
出圈一周年,DeepSeek的变与不变
2026-01-16 15:50:22
中国AI模型崛起!已拿下全球15%份额:一年前才1%
2026-01-19 17:05:01
智谱发布新一代旗舰开源模型 GLM-4.5,专为智能体应用打造
2025-07-28 22:20:02
下载超 10 亿、衍生模型破 20 万,阿里千问刷新全球开源模型纪录
2026-01-21 16:18:32
抢跑GPT-5,智谱开源新SOTA模型,一句话搞出能看视频、发弹幕的B站!
2025-07-29 00:21:11
24小时热文
更多
扫一扫体验小程序