综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年1月,蚂蚁灵波团队开源了具身智能基座模型LingBot-VLA,基于20000小时真实世界机器人数据训练,成为当前最强的Vision-Language-Action(VLA)模型。该模型在权威评测GM-100基准中全面超越π0.5、英伟达GR00T N1.6等顶尖模型,尤其在复杂任务如收纳、餐具清洁中表现出色。LingBot-VLA采用专家混合Transformer架构与流匹配技术,具备跨机器人平台的泛化能力,并首次系统验证了真实数据规模与性能提升的Scaling Law。蚂蚁灵波专注为机器人提供‘通用大脑’,通过开源代码、评估基准及高效训练方案,推动行业从实验室迈向规模化落地。项目主页和代码已公开,展示了蚂蚁集团在AGI领域的技术布局与开放愿景。
原文链接
2026年1月28日,蚂蚁集团旗下灵波科技宣布开源具身大模型LingBot-VLA,该模型面向真实机器人操作场景,具备跨本体、跨任务泛化能力,大幅降低后训练成本。在GM-100真机评测中,其跨本体泛化成功率从13.0%提升至17.3%,刷新纪录;在RoboTwin 2.0仿真评测中,成功率较Pi0.5提升9.92%。LingBot-VLA基于20000+小时真机数据预训练,覆盖9种主流双臂机器人构型,可无缝迁移至不同硬件,并通过与LingBot-Depth结合增强空间感知能力。此次开源包含模型权重及全套代码库,显著降低商业化落地门槛。蚂蚁灵波科技CEO朱兴表示,希望通过开源推进具身智能技术规模化应用,助力AGI研发。
原文链接
2026年1月28日,蚂蚁集团旗下灵波科技宣布开源具身大模型LingBot-VLA,该模型面向真实机器人操作场景,具备跨本体、跨任务泛化能力,并显著降低后训练成本。在GM-100评测基准测试中,LingBot-VLA在3个不同机器人平台上平均成功率提升至15.7%,引入深度信息后更达17.3%,刷新真机评测纪录。这一成果推动“一脑多机”技术走向工程化落地,为机器人领域带来重要突破。
原文链接
加载更多
暂无内容