DeepSeek开源新模型,数学推理能力大提升
五一假期前,DeepSeek发布惊喜——DeepSeek-Prover-V2在Hugging Face上线,同步提供模型卡与示例代码。该版本包括两个模型:DeepSeek-Prover-V2-7B(基于V1.5,支持32K上下文输入)和DeepSeek-Prover-V2-671B(以DeepSeek-V3-Base为基础,性能最强)。
训练采用“递归+强化学习”策略:DeepSeek-V3分解复杂定理,生成子目标和推理思路,再利用GRPO算法优选最佳方案。模型具备“快速模式”(non-CoT)和“逻辑模式”(CoT),分别注重速度与过程透明。
开发分两阶段:初期专注快速模式,用“专家迭代”法优化;后期培养逻辑推理,迁移知识并引入“冷启动”机制。GRPO算法通过对比候选答案质量,引导模型选择最优解。
最终,671B模型的能力被“蒸馏”至7B模型,实现小体积高性能。7B模型在MiniF2F测试中达88.9%通过率,解出PutnamBench中的49题。同时发布的ProverBench数据集含325道题,覆盖多领域,展现模型在不同数学推理中的能力。
经典问题测试显示,模型不仅解答正确,还能清晰解释抽象概念。DeepSeek-Prover-V2不仅提供答案,还指引语言模型未来发展方向:从生成内容到生成结构化逻辑,这是通向通用人工智能的重要一步。
模型现已通过Hugging Face免费下载,支持Transformers接口部署。相关地址已在文末列出。
原文链接
本文链接:https://kx.umi6.com/article/18058.html
转载请注明文章出处
相关推荐
.png)
换一换
MoE那么大,几段代码就能稳稳推理 | 开源
2025-07-02 18:09:04
梁文锋,与杨植麟再「撞车」
2025-05-12 15:36:02
英伟达开源9B参数小模型,比Qwen3快6倍
2025-08-19 16:03:42
中国移动“九天”通用基础大模型 3.0 发布,核心技术开源
2025-07-26 22:47:54
三家混战,大模型重回2023
2025-08-03 11:35:50
小米多模态大模型 MiMo-VL 开源,官方称多方面领先 Qwen2.5-VL-7B
2025-05-30 16:57:55
小红书开源首个大模型 预训练未使用合成数据
2025-06-10 09:46:30
中国AI 大厂,被Deepseek 掀了牌桌之后
2025-05-19 13:16:00
李开复:如果十年后回顾 DeepSeek 如何让中国未落后美国,答案是开源
2025-09-27 12:40:23
英伟达一口气开源多项机器人技术,与迪士尼合作的物理引擎也开源
2025-10-02 12:10:18
AI“以小博大”新标杆:三星开源 TRM 模型,700 万参数、特定任务性能媲美 Deepseek R1 等万倍大模型
2025-10-11 10:06:15
腾讯发布混元3D世界模型1.0:首个支持物理仿真的开源世界生成系统
2025-08-01 09:00:10
MiniMax 推出全球首个开源大规模混合架构的推理模型 M1:456B 参数,性能超 DeepSeek-R1
2025-06-17 17:28:14
514 文章
238455 浏览
24小时热文
更多

-
2025-10-24 05:23:38
-
2025-10-24 03:21:23
-
2025-10-24 01:20:07