大模型掌握人类空间思考能力!三阶段训练框架学会“边画边想”,5个基准平均提升18.4%
“边看边画,边画边想”,让大模型掌握空间思考能力,实现空间推理任务新SOTA。
蚂蚁技术研究院自然语言组联合中科院自动化所和香港中文大学开源ViLaSR-7B。它在迷宫导航、静态图像理解、视频空间推理等5个基准上平均提升18.4%,在VSI-Bench上达45.4%,全面超越现有方法。模型展现了类似人类的空间推理策略和反思能力,迈向视觉智能的重要一步。
团队设计三阶段训练框架:冷启动训练建立基础视觉操作能力;反思拒绝采样筛选高质量推理路径;强化学习优化任务目标。
视觉推理从“视觉转文本”转向“Thinking with Images”。传统范式易丢关键信息,“Thinking with Images”通过图像操作增强推理能力。ViLaSR-7B通过“Drawing to Reason in Space”范式,让模型“边画边想”,显著提升推理效率与可解释性。
实验显示,ViLaSR-7B在多个基准上表现优异,尤其在VSI-Bench上领先Qwen2.5-VL-7B 12.7%。消融实验验证了各阶段的重要性,强化学习优化绘图操作效率,模型具备类人空间推理策略。
原文链接
本文链接:https://kx.umi6.com/article/20587.html
转载请注明文章出处
相关推荐
.png)
换一换
IDC评测9家座舱大模型产品 斑马获最多项满分推荐
2025-07-18 11:36:59
对话季宇:大模型非必须在GPU跑,CPU内存带宽已足够
2025-05-18 15:21:36
大模型呼唤开源多模态 AI加速冲刺物理世界
2025-06-07 14:50:49
426 文章
66865 浏览
24小时热文
更多

-
2025-07-19 18:55:37
-
2025-07-19 17:56:25
-
2025-07-19 17:55:01