综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月30日,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。该模型首次提出自回归视频-动作世界建模框架,深度融合大规模视频生成与机器人控制,可直接推演并输出动作序列,使机器人实现“边推演、边行动”。真机评测显示,LingBot-VA在复杂物理交互任务中表现出色,仅需30~50条演示数据即可适配,任务成功率较业界强基线Pi0.5提升20%。仿真测试中,其在RoboTwin 2.0和LIBERO基准上分别达到超90%和98.5%的成功率,刷新行业纪录。LingBot-VA采用Mixture-of-Transformers架构,通过闭环推演机制和异步推理管线优化,实现高精度低延迟控制。蚂蚁灵波表示,此次开源旨在推动具身智能基础能力共建,加速AGI生态落地。目前,模型权重与代码已全面开放。
原文链接
1月30日,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。该模型首次提出自回归视频-动作世界建模框架,将大规模视频生成与机器人控制深度融合。LingBot-VA能够在生成“下一步世界状态”的同时,直接推演并输出对应的动作序列,使机器人实现“边推演、边行动”的类人能力。这一技术突破为机器人领域带来全新可能性,进一步推动具身智能的发展。
原文链接
加载更多
暂无内容