1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

华为盘古718B模型最新成绩:开源第二

金磊 发自 凹非寺
量子位 | 公众号 QbitAI

在最新一期的SuperCLUE中文大模型通用基准测评中,华为的openPangu-Ultra-MoE-718B(盘古718B)以出色表现位列开源模型第二名。本次测评从数学推理、科学推理、代码生成等六个维度评估了各模型的能力,共计1260道题目。

盘古718B拥有7180亿参数的MoE架构,其成功秘诀并非依赖数据量的堆砌,而是注重“会思考”的训练哲学。通过高质量数据和创新方法,该模型在复杂场景下的推理能力尤为突出。

核心亮点

1. 数据质量优先
团队在后训练数据构建中遵循“质量优先、多样性覆盖、复杂度适配”三大原则,设计了一套全流程方案。通过三重审核机制清理低质量样本,利用去重算法确保多样性,并通过量化任务难度提升复杂场景的表现。

2. 三阶段预训练策略
预训练分为通用、推理和退火三个阶段:
- 通用阶段:学习广泛的世界知识;
- 推理阶段:强化逻辑推理能力,引入高难度多步骤推理题库;
- 退火阶段:提升上下文处理能力,增加工具使用数据占比。

3. 缓解幻觉问题
团队引入“批判内化”机制,让模型不仅学习正确答案,还能评判解答优劣。这种方法显著减少了逻辑跳跃和信息遗漏等问题,提升了输出的可靠性。

4. 工具使用能力进化
通过升级版工具数据合成框架ToolACE,模型学会了在复杂交互中灵活调用多种工具。框架涵盖领域工具组合、交互式目标轨迹生成、多智能体对话生成等技术,极大提升了模型的实际应用能力。

5. 三步式后训练优化
团队采用渐进动态微调(PDFT)、强化学习(GSPO算法)和模型融合三种方法,进一步优化性能。最终通过黑盒优化整合多个版本的优势,打造出综合性能更强的模型。

总结

盘古718B的优异表现得益于系统性的技术创新,从数据构建到后训练优化,每一步都体现了对技术细节的极致追求。这不仅展示了华为的技术实力,也为行业树立了标杆。

参考链接:
[1] https://ai.gitcode.com/ascend-tribe/openpangu-ultra-moe-718b-model
[2] https://arxiv.org/abs/2501.17703
[3] http://arxiv.org/abs/2409.00920

原文链接
本文链接:https://kx.umi6.com/article/26056.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
华为盘古 Ultra-MoE-718B-V1.1 正式开源并开放下载,模型权重与技术细节全面公开
2025-10-16 17:57:55
OpenAI对标DeepSeek的开源模型,本周就要来了?
2025-04-14 13:32:36
OpenAI 开源模型发布推迟至夏末,CEO 奥尔特曼称“非常值得等待”
2025-06-11 09:03:41
大模型首次直接理解代码图:不用 Agent 自动修 bug,登顶 SWE-Bench 开源模型榜单
2025-06-27 15:12:57
对话朱啸虎:搬离中国,假装不是中国AI创业公司,是没有用的
2025-09-20 20:35:10
微软将 OpenAI 最小开源模型 gpt-oss-20b 引入 Windows,本地也能跑
2025-08-07 11:47:50
蚂蚁集团发布万亿参数旗舰模型 Ling-1T 并开源,多项指标位居开源模型榜首
2025-10-11 09:36:05
百元级硬件流畅运行百亿参数大模型!上交&本智激活开源端侧原生大模型
2025-07-27 18:00:02
业界首个:腾讯混元-A13B 模型发布并开源,极端条件 1 张中低端 GPU 卡即可部署
2025-06-27 17:10:33
DeepSeek终于丢了开源第一王座,但继任者依然来自中国
2025-07-18 17:42:26
刚刚,OpenAI开源2个推理模型:笔记本/手机就能跑,性能接近o4-mini
2025-08-06 06:22:19
黄仁勋再谈中美AI竞争: 一边批美 一边点名力推中国两款开源模型
2025-05-31 09:01:17
前谷歌CEO:千万不要低估中国的AI竞争力
2025-05-10 12:07:51
24小时热文
更多
扫一扫体验小程序