1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

4B小模型数学推理首超Claude 4,700步RL训练逼近235B性能 | 港大&字节Seed&复旦

香港大学NLP团队联合字节跳动Seed和复旦大学推出强化学习训练配方Polaris,通过仅700步RL训练,让4B参数量的小模型在数学推理任务上接近235B大模型的表现,并超越Claude-4-Opus等商业大模型。Polaris-4B不仅轻量化,还能在消费级显卡上部署,且全部开源。

核心方法:围绕模型定制参数

Polaris成功的关键在于训练数据与超参数设置均围绕待训练模型调整。研究发现,不同基模型对同一数据集的难度感知呈现“镜像化”特征。为此,团队筛选并动态更新训练数据,剔除过于简单的样本,构建轻微偏向难题的数据分布,确保每个batch中优势样本比例适中。

多样性优化:动态温度调整

在RL训练中,多样性是提升表现的重要因素。Polaris通过实验分析采样温度与模型性能及多样性的关系,提出三个温度区域:鲁棒生成区、控制探索区和性能崩塌区。团队将Qwen3-4B的初始训练温度设为1.4,并在训练过程中动态调整温度,以维持多样性,避免后期探索空间不足。

长上下文训练:长度外推技术

针对长上下文训练难题,Polaris引入位置编码RoPE的长度外推技术(扩展因子1.5),使模型能处理超出预训练长度的序列。实验显示,这一策略显著提升了长文本回答的准确率,从26%提升至50%以上。

多阶段训练策略

Polaris采用多阶段训练方式,早期使用较短上下文窗口,逐步增加长度以拓宽推理能力。对于Qwen3-4B,直接从较长响应长度(如40K)开始训练效果更优,避免因截断导致性能下降。

评估结果

Polaris-4B在AIME25和AIME24评测中分别取得79.4和81.2的高分,超越多个商业大模型,成为当前最佳解决方案之一。

开源链接: - Notion
- Blog
- 代码
- Huggingface主页

原文链接
本文链接:https://kx.umi6.com/article/21432.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
马斯克亲自点名Karpathy迎战Grok 5!别神话LLM,AGI还要等十年
2025-10-20 15:08:42
8块钱跑通一次强化学习全流程,潞晨云重塑微调赛道:1名算法工程师=1支Infra团队
2026-01-07 16:15:48
DeepSeekV3.2技术报告还是老外看得细
2025-12-04 09:09:55
Meta 推 LlamaRL 强化学习框架:全异步分布设计,训练 AI 模型提速 10.7 倍
2025-06-11 16:14:21
字节&MAP重塑大模型推理算法优化重点,强化学习重在高效探索助力LLM提升上限
2025-08-11 10:59:04
谷歌研究:合成数据使大模型数学推理能力提升八倍
2025-04-07 09:47:20
大模型RL不止数学代码!7B奖励模型搞定医学法律经济全学科, 不用思维链也能做题
2025-04-02 17:34:52
LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍
2025-11-08 13:43:06
Nature封面文章: DeepSeek-R1通过强化学习激励的LLM推理
2025-09-18 08:48:39
混元OCR模型核心技术揭秘:统一框架、真端到端
2025-11-30 11:05:21
又一篇“苦涩的教训”,让AI觉得人间有不值,发现无穷尽
2025-04-22 08:10:09
通义实验室新研究:大模型自己「扮演」搜索引擎,提升推理能力无需搜索API
2025-05-17 13:07:29
阿里通义千问推出Qwen3-Max-Thinking尝鲜版
2025-11-04 17:23:23
24小时热文
更多
扫一扫体验小程序