1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

4B小模型数学推理首超Claude 4,700步RL训练逼近235B性能 | 港大&字节Seed&复旦

香港大学NLP团队联合字节跳动Seed和复旦大学推出强化学习训练配方Polaris,通过仅700步RL训练,让4B参数量的小模型在数学推理任务上接近235B大模型的表现,并超越Claude-4-Opus等商业大模型。Polaris-4B不仅轻量化,还能在消费级显卡上部署,且全部开源。

核心方法:围绕模型定制参数

Polaris成功的关键在于训练数据与超参数设置均围绕待训练模型调整。研究发现,不同基模型对同一数据集的难度感知呈现“镜像化”特征。为此,团队筛选并动态更新训练数据,剔除过于简单的样本,构建轻微偏向难题的数据分布,确保每个batch中优势样本比例适中。

多样性优化:动态温度调整

在RL训练中,多样性是提升表现的重要因素。Polaris通过实验分析采样温度与模型性能及多样性的关系,提出三个温度区域:鲁棒生成区、控制探索区和性能崩塌区。团队将Qwen3-4B的初始训练温度设为1.4,并在训练过程中动态调整温度,以维持多样性,避免后期探索空间不足。

长上下文训练:长度外推技术

针对长上下文训练难题,Polaris引入位置编码RoPE的长度外推技术(扩展因子1.5),使模型能处理超出预训练长度的序列。实验显示,这一策略显著提升了长文本回答的准确率,从26%提升至50%以上。

多阶段训练策略

Polaris采用多阶段训练方式,早期使用较短上下文窗口,逐步增加长度以拓宽推理能力。对于Qwen3-4B,直接从较长响应长度(如40K)开始训练效果更优,避免因截断导致性能下降。

评估结果

Polaris-4B在AIME25和AIME24评测中分别取得79.4和81.2的高分,超越多个商业大模型,成为当前最佳解决方案之一。

开源链接: - Notion
- Blog
- 代码
- Huggingface主页

原文链接
本文链接:https://kx.umi6.com/article/21432.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
腾讯混元再引强将,庞天宇即将入职多模态模型团队负责强化学习前沿算法探索
2026-01-30 15:35:19
文生图进入R1时代:港中文发布T2I-R1,让AI绘画“先推理再下笔”
2025-05-14 17:20:57
OpenAI路线遭质疑,Meta研究员:根本无法构建超级智能
2025-06-20 21:05:08
Cursor发布首个编程大模型!代码生成250tokens/秒,强化学习+MoE架构
2025-10-30 10:33:49
RL 是推理神器?清华上交大最新研究指出:RL 让大模型更会“套公式”、却不会真推理
2025-04-23 11:57:26
蚂蚁开源 Ring-1T,成就推理、编程、通用智能三冠王
2025-10-24 11:36:00
OpenAI总裁透露GPT-5改了推理范式,AGI实现要靠现实反馈
2025-08-18 17:48:45
强化学习之于 AI Agent,是灵魂、还是包袱?
2025-04-23 11:56:20
翁荔最新万字长文:Why We Think
2025-05-18 14:20:10
大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘
2025-10-23 17:10:54
小米最新大模型成果!罗福莉现身了
2025-10-17 16:21:28
我不给人做产品,给Agent做
2025-06-30 08:39:41
Meta万引强化学习大佬跑路!用小扎原话作为离别寄语,扎心了
2025-08-26 13:43:07
24小时热文
更多
扫一扫体验小程序