1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

缺数据也能拿SOTA?清华&上海AI Lab破解机器人RL两大瓶颈

视觉-语言-动作(VLA)模型是实现机器人复杂操作的关键,但其训练面临数据采集成本高和泛化能力不足的瓶颈。为此,研究团队提出了SimpleVLA-RL框架,基于veRL扩展,通过交互式轨迹采样、结果奖励建模和探索增强等设计,显著提升了VLA模型的训练效率与性能。

SimpleVLA-RL解决了三大核心问题:降低对大规模演示数据的依赖、增强分布偏移场景下的泛化能力、实现高效的仿真到现实(Sim-to-Real)迁移。实验表明,在LIBERO与RoboTwin基准测试中,该框架均达到SoTA性能。即使在有限数据条件下,如单轨迹微调场景下,OpenVLA-OFT的LIBERO平均成功率从48.9%提升至96.9%,长时序任务LIBERO-Long从17.3%提升至91.7%。

此外,模型展现出自主探索能力,涌现出“Pushcut”现象——通过“推动”替代“抓取”,突破人类演示模式。这表明SimpleVLA-RL不仅提升了数据效率和泛化能力,还为机器人学习提供了新路径。

框架亮点
SimpleVLA-RL采用端到端在线训练方案,包含四大设计:
1. 交互式轨迹采样:动态更新视觉观测与机器人状态,生成多样轨迹;
2. 结果奖励建模:使用简单二元奖励(成功记1,失败记0),避免复杂过程奖励的不可迁移性;
3. 探索增强:通过动态采样、扩大裁剪区间和提高采样温度,鼓励多样化探索;
4. 简化训练目标:移除KL散度正则项,减少内存消耗,促进新行为探索。

主要贡献
- 构建高效RL框架,支持规模化训练;
- 刷新多个基准测试性能,超越现有SOTA模型;
- 提升数据效率与泛化能力,仅需单条演示轨迹即可显著提升成功率;
- 实现强大的Sim-to-Real迁移,无需额外真实数据;
- 发现“Pushcut”新策略,证明RL能突破人类演示局限。

实验结果
在LIBERO、RoboTwin 1.0/2.0基准测试中,SimpleVLA-RL显著优于现有方法。例如,LIBERO-Long任务成功率从17.1%提升至91.7%;RoboTwin 2.0的超长时序任务提升18.7个百分点。真实世界测试中,AgileX Piper机械臂的成功率从17.5%提升至38.5%。

论文链接:https://arxiv.org/pdf/2509.09674
代码链接:https://github.com/PRIME-RL/SimpleVLA-RL

原文链接
本文链接:https://kx.umi6.com/article/25909.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
受 DeepSeek-R1 启发,小米大模型团队登顶音频推理 MMAU 榜
2025-03-17 12:37:44
UCL强化学习派:汪军与他的学生们
2025-02-27 19:41:38
机器狗能打羽毛球:仅靠强化学习从 0 自学,还会自己移步
2025-05-30 17:53:28
波士顿动力 Spot 四足机器人学会连续后空翻,意外让行走姿态更像真实动物
2025-08-28 10:20:06
2025年图灵奖:强化学习的前世今生
2025-04-01 10:19:18
万字梳理:揭秘 DeepSeek 中的 RL 与 AGI 下一步丨AIR 2025
2025-03-08 11:48:22
OpenAI新模型被曝秘密训练中,o4会是什么样?
2025-06-10 18:54:49
Meta 推出强化学习新框架 SWEET-RL,让 AI 更懂人类意图
2025-03-24 11:54:11
Andrej Karpathy 最新视频盛赞 DeepSeek:R1 正在发现人类思考的逻辑并进行复现
2025-02-07 15:00:52
Gemini2.5弯道超车背后的灵魂人物
2025-06-05 11:52:48
面壁智能联创谈 DeepSeek 出圈:与 OpenAI o1 不开源有关,R1 模型创造了新的 ChatGPT 时刻
2025-02-06 09:27:16
OpenAI总裁透露GPT-5改了推理范式,AGI实现要靠现实反馈
2025-08-18 17:48:45
4B小模型数学推理首超Claude 4,700步RL训练逼近235B性能 | 港大&字节Seed&复旦
2025-07-09 15:04:14
24小时热文
更多
扫一扫体验小程序