1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

华为盘古718B模型最新成绩:开源第二

金磊 发自 凹非寺
量子位 | 公众号 QbitAI

在最新一期的SuperCLUE中文大模型通用基准测评中,华为的openPangu-Ultra-MoE-718B(盘古718B)以出色表现位列开源模型第二名。本次测评从数学推理、科学推理、代码生成等六个维度评估了各模型的能力,共计1260道题目。

盘古718B拥有7180亿参数的MoE架构,其成功秘诀并非依赖数据量的堆砌,而是注重“会思考”的训练哲学。通过高质量数据和创新方法,该模型在复杂场景下的推理能力尤为突出。

核心亮点

1. 数据质量优先
团队在后训练数据构建中遵循“质量优先、多样性覆盖、复杂度适配”三大原则,设计了一套全流程方案。通过三重审核机制清理低质量样本,利用去重算法确保多样性,并通过量化任务难度提升复杂场景的表现。

2. 三阶段预训练策略
预训练分为通用、推理和退火三个阶段:
- 通用阶段:学习广泛的世界知识;
- 推理阶段:强化逻辑推理能力,引入高难度多步骤推理题库;
- 退火阶段:提升上下文处理能力,增加工具使用数据占比。

3. 缓解幻觉问题
团队引入“批判内化”机制,让模型不仅学习正确答案,还能评判解答优劣。这种方法显著减少了逻辑跳跃和信息遗漏等问题,提升了输出的可靠性。

4. 工具使用能力进化
通过升级版工具数据合成框架ToolACE,模型学会了在复杂交互中灵活调用多种工具。框架涵盖领域工具组合、交互式目标轨迹生成、多智能体对话生成等技术,极大提升了模型的实际应用能力。

5. 三步式后训练优化
团队采用渐进动态微调(PDFT)、强化学习(GSPO算法)和模型融合三种方法,进一步优化性能。最终通过黑盒优化整合多个版本的优势,打造出综合性能更强的模型。

总结

盘古718B的优异表现得益于系统性的技术创新,从数据构建到后训练优化,每一步都体现了对技术细节的极致追求。这不仅展示了华为的技术实力,也为行业树立了标杆。

参考链接:
[1] https://ai.gitcode.com/ascend-tribe/openpangu-ultra-moe-718b-model
[2] https://arxiv.org/abs/2501.17703
[3] http://arxiv.org/abs/2409.00920

原文链接
本文链接:https://kx.umi6.com/article/26056.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
深夜突袭,阿里Qwen3登顶全球开源王座!暴击DeepSeek-R1,2小时狂揽17k星
2025-05-05 09:42:37
奥特曼再谈DeepSeek
2025-02-08 17:27:08
智谱发布新一代旗舰开源模型 GLM-4.5,专为智能体应用打造
2025-07-28 22:20:02
对话朱啸虎:搬离中国,假装不是中国AI创业公司,是没有用的
2025-09-20 20:35:10
超越 OpenAI 医疗能力全球登顶,百川发布开源 AI 大模型 Baichuan-M2
2025-08-11 14:01:35
黄仁勋再谈中美AI竞争: 一边批美 一边点名力推中国两款开源模型
2025-05-31 09:01:17
基础模型、开源旋风与浙江三剑客
2025-04-08 14:58:06
HuggingFace上的热门开源模型,一半都来自中国了
2025-03-12 12:21:32
腾讯混元 0.5B、1.8B、4B、7B模型发布
2025-08-04 16:02:12
OpenAI再次推迟发布开源模型
2025-07-14 08:16:03
微软将 OpenAI 最小开源模型 gpt-oss-20b 引入 Windows,本地也能跑
2025-08-07 11:47:50
OpenAI进入新品发布周期 开源模型GPT-OSS打头阵
2025-08-06 08:26:35
B站开源动漫视频生成模型 AniSora V3 版,速度更快、质量更高
2025-07-07 08:25:15
24小时热文
更多
扫一扫体验小程序