
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
微软亚洲研究院发布创新算法rStar-Math,通过代码增强CoT和蒙特卡洛树搜索,使小参数模型无需依赖大型模型蒸馏即可实现自我进化。在美国数学竞赛AIME 2024中,rStar-Math平均解决了53.3%的难题,超过OpenAI o1-preview的44.6%。在MATH基准测试中,rStar-Math显著提高了阿里开源模型Qwen2.5-Math的准确率。该算法通过四轮自我进化,结合PPM、MCTS和代码增强CoT,大幅提升了模型的数学推理能力。这表明小模型在创新算法和高质量数据支持下,可媲美甚至超越大型模型。
原文链接
1月10日,微软亚洲研究院发布rStar-Math技术,该技术专用于解决数学问题,采用蒙特卡洛树搜索方法。研究人员通过训练“策略模型”和“过程偏好模型”,提升了小语言AI模型的数学推理能力。测试显示,Qwen2.5-Math-7B模型准确率从58.8%提升至90.0%,Phi3-mini-3.8B模型从41.4%提升至86.4%,优于OpenAI的o1-preview模型。研究团队计划在GitHub上公开rStar-Math的代码和数据。
原文链接
标题:MSRA推出rStar-Math,使Qwen2.5 7B数学推理超越o1
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI
7B参数的Qwen2.5数学推理表现超过o1-preview,靠的是MSRA的最新算法rStar-Math。该算法通过代码增强CoT、蒙特卡洛树搜索(MCTS)等技术...
原文链接
加载更多

暂无内容