综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
1月30日,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。该模型首次提出自回归视频-动作世界建模框架,将大规模视频生成与机器人控制深度融合。LingBot-VA能够在生成“下一步世界状态”的同时,直接推演并输出对应的动作序列,使机器人实现“边推演、边行动”的类人能力。这一技术突破为机器人领域带来全新可能性,进一步推动具身智能的发展。
原文链接
2026年1月,蚂蚁灵波团队开源了具身智能基座模型LingBot-VLA,基于20000小时真实世界机器人数据训练,成为当前最强的Vision-Language-Action(VLA)模型。该模型在权威评测GM-100基准中全面超越π0.5、英伟达GR00T N1.6等顶尖模型,尤其在复杂任务如收纳、餐具清洁中表现出色。LingBot-VLA采用专家混合Transformer架构与流匹配技术,具备跨机器人平台的泛化能力,并首次系统验证了真实数据规模与性能提升的Scaling Law。蚂蚁灵波专注为机器人提供‘通用大脑’,通过开源代码、评估基准及高效训练方案,推动行业从实验室迈向规模化落地。项目主页和代码已公开,展示了蚂蚁集团在AGI领域的技术布局与开放愿景。
原文链接
加载更多
暂无内容