标题:MSRA推出rStar-Math,使Qwen2.5 7B数学推理超越o1
衡宇 发自 凹非寺 量子位 | 公众号 QbitAI
7B参数的Qwen2.5数学推理表现超过o1-preview,靠的是MSRA的最新算法rStar-Math。该算法通过代码增强CoT、蒙特卡洛树搜索(MCTS)等技术,让小模型在不依赖教师模型的情况下,通过多轮自我进化掌握数学推理。
在美国数学竞赛AIME 2024中,rStar-Math解决了53.3%的难题,高于o1-preview的44.6%。在MATH基准测试中,rStar-Math将Qwen2.5-Math-7B的准确率从58.8%提升至90.0%,Qwen2.5-Math-1.5B从51.2%提升至87.8%,Phi3-mini-3.8B从41.4%提升至86.4%,均超越o1-preview。
rStar-Math通过三项创新方法实现: 1. 代码增强CoT数据合成方法 2. 过程奖励模型训练方法 3. 四轮自我思维深度进化
四轮自我进化中,每轮使用MCTS生成推理轨迹,不断优化策略和奖励模型。最终,747k数学题的准确率达到90.25%。
实验显示,rStar-Math显著提高了SLM的数学推理能力,即使在较小模型尺寸下也能达到与OpenAI o1相当甚至更好的性能。
原文链接
本文链接:https://kx.umi6.com/article/11477.html
转载请注明文章出处
相关推荐
换一换
360gpt2-o1 上线:“会思考”的国产大模型,探索 AI 推理新极限
2024-12-14 11:46:11
Qwen2.5登全球开源王座!72B击败LIama3 405B,轻松胜过GPT-4o-mini
2024-09-19 15:23:24
重大突破!微软发布“自我进化”,帮小模型超OpenAI-o1
2025-01-13 10:50:38
让Qwen2.5 7B超越o1,微软干的!MSRA推出小模型数学推理自我进化新方法
2025-01-10 12:15:13
阿里通义千问开源 Qwen2.5 大模型,号称性能超越 Llama
2024-09-19 16:44:22
深夜突袭,DeepSeek-Prover-V2加冕数学王者!671B数学推理逆天狂飙
2025-05-05 09:43:44
有道14B低成本轻量模型“子曰3”开源,数学推理性能超越大模型
2025-06-23 17:25:48
苹果新论文证明LLM大模型存在缺陷!没有进行真正的逻辑推理
2024-10-15 17:25:58
菲尔兹奖得主亲测 GPT-4o,经典过河难题破解失败
2024-06-30 15:55:25
不蒸馏R1也能超越DeepSeek,上海 AI Lab 用RL突破数学推理极限
2025-02-16 12:22:15
微软 rStar-Math 技术登场:小语言 AI 模型数学推理从“不及格”一跃成为“优等生”
2025-01-11 12:39:34
不敢对比Qwen2.5,Mistral最强小模型陷争议,欧洲OpenAI不Open了
2024-10-17 13:03:45
微软推出 14B 参数小语言模型 Phi-4:专攻数学等领域复杂推理
2024-12-13 13:24:50
579 文章
292321 浏览
24小时热文
更多
-
2025-10-24 22:57:14 -
2025-10-24 21:54:02 -
2025-10-24 21:53:50