综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2026年3月,具身智能企业极佳视界完成近10亿元Pre-B轮融资,投资方包括中芯聚源、中金资本等顶尖产业资本及国资平台。公司深耕具身基模和世界模型领域,其开源模型GigaBrain-0.1曾获全球权威评测第一,GigaBrain-0.5M*为全球首个基于世界模型的强化学习具身基模。极佳视界全栈自研的Maker H01机器人已开启交付,全年目标冲刺千台,并在汽车制造、仓储物流等多场景实现应用落地。创始人黄冠表示,世界模型有望带来10-100倍效率提升,推动物理AGI进入爆发阶段。本次融资将用于加速具身基模进化与原生本体量产,引领通用机器人走进千家万户。
原文链接
2026年2月,清华大学数学系校友张鹏川宣布从Meta FAIR离职,加入OpenAI,投身世界模拟与机器人学研究。他曾主导SAM与Llama系列项目开发,包括最新迭代的SAM 3和Llama 4视觉grounding,显著提升Meta生成式AI竞争力。张鹏川拥有加州理工学院应用与计算数学博士学位,曾任职微软研究院并兼任华盛顿大学助理教授,谷歌学术引用超3.4万次。OpenAI Sora项目负责人Aditya Ramesh对其加入表示欢迎。近期,OpenAI吸引多位顶尖研究者加盟,被认为与其强大的算力和世界建模基础设施密切相关。张鹏川的加入被视为OpenAI在“世界模型+物理智能”领域的重要布局,未来工作备受期待。
原文链接
2026年2月,李飞飞创立的空间智能公司World Labs宣布完成10亿美元新融资,估值达50亿美元。这家成立于2024年4月的创业公司,成长速度惊人,仅用不到两年时间估值翻了5倍。本轮投资者包括AMD、英伟达、Autodesk、富达等,覆盖算力、工业软件、资本及市场等多个领域,显示出产业与资本对空间智能的强烈信心。公司核心产品Marble是一款多模态世界模型,可生成稳定、可交互的3D环境,应用于机器人模拟、游戏开发、医疗研究等场景。李飞飞表示,空间智能是AI的下一个前沿,旨在让AI理解并参与物理世界。资本市场正押注这一方向,World Labs成为行业焦点。
原文链接
2026年2月,极佳视界发布全新VLA大模型GigaBrain-0.5M*,在具身智能领域取得突破性进展。该模型基于世界模型条件驱动,通过‘人在回路持续学习’机制实现自主迭代升级,在复杂长时程任务(如叠衣服、冲咖啡、折纸盒)中实现近100%成功率,较主流方法RECAP提升30%。研发团队采用基于世界模型的强化学习范式和四阶段闭环训练流程,结合总计10,931小时多样化机器人操作数据进行预训练,显著提升策略鲁棒性与泛化能力。实验表明,其价值预测方案在执行效率与精度上优于现有基线方法,为具身智能走向开放世界奠定基础。项目论文及详情已公开。
原文链接
2026年2月,清华大学与生数科技联合开源了大一统世界模型Motus,性能超越国际顶尖模型Pi-0.5达40%。Motus由清华TSAIL实验室的硕士生毕弘喆和博士生谭恒楷领衔开发,首次实现‘看-想-动’闭环,统一视觉-语言-动作等五种具身智能范式。测试显示,Motus在50项通用任务中成功率高达88%,部分任务表现尤为突出(如叠碗成功率达95%)。其创新的Mixture-of-Transformer架构和潜动作技术大幅提升了数据效率,仅需传统模型1/13的数据量即可达到相同效果。Motus已全量开源,论文、代码及模型权重均已发布,为机器人领域迈向端到端智能提供了重要突破。
原文链接
交大系突破具身智能赛道!万台订单在手,用世界模型重塑城市基建
Scaling Law在物理世界失效了吗?大模型改变数字世界后,物理AI成为下一个目标。然而,通用机器人面临前所未有的挑战:物理世界开放、连续且因果约束强,任务多样、交互复杂、失败成本高。行业共识是,仅靠堆砌真实数据已到极限,机器人需具备...
原文链接
正文:2026年1月,蚂蚁灵波团队开源了全球首个用于通用机器人控制的因果视频-动作世界模型LingBot-VA。该模型通过自回归视频预测技术,使机器人能在行动前推演未来几秒的画面,实现基于想象力的决策。其核心亮点包括长期记忆、高效泛化和高精度任务执行能力,例如清洗试管、拧螺丝等复杂操作。实验显示,LingBot-VA在RoboTwin 2.0和LIBERO基准测试中表现优异,尤其在长时序任务中优势显著。这是蚂蚁灵波连续第四天开源项目,此前已发布LingBot-Depth、LingBot-VLA和LingBot-World,分别解决感知、连接和理解问题。此次开源标志着通用机器人进入视频时代,推动行业向具身智能迈进。
原文链接
2026年1月,蚂蚁灵波连续第四天开源重磅项目,推出全球首个用于通用机器人控制的因果视频-动作世界模型LingBot-VA。该模型通过自回归视频预测技术,使机器人能在行动前推演未来几秒的画面,实现“想象力指导决策”。相比传统VLA模型,LingBot-VA具备长期记忆、高效泛化和强适应能力,在长时序任务(如准备早餐)、高精度任务(如清洗试管、拧螺丝)及可变形物体操作(如折衣服)中表现优异。实验显示,其在RoboTwin 2.0和LIBERO基准测试中均刷新SOTA记录,尤其在复杂任务中优势显著。此次开源标志着通用机器人进入视频时代,视频成为连接感知、记忆与行动的核心媒介。蚂蚁灵波的技术布局引发行业震动,谷歌、宇树科技等相继跟进,全球机器人领域竞争加剧。
原文链接
1月30日,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。该模型首次提出自回归视频-动作世界建模框架,深度融合大规模视频生成与机器人控制,可直接推演并输出动作序列,使机器人实现“边推演、边行动”。真机评测显示,LingBot-VA在复杂物理交互任务中表现出色,仅需30~50条演示数据即可适配,任务成功率较业界强基线Pi0.5提升20%。仿真测试中,其在RoboTwin 2.0和LIBERO基准上分别达到超90%和98.5%的成功率,刷新行业纪录。LingBot-VA采用Mixture-of-Transformers架构,通过闭环推演机制和异步推理管线优化,实现高精度低延迟控制。蚂蚁灵波表示,此次开源旨在推动具身智能基础能力共建,加速AGI生态落地。目前,模型权重与代码已全面开放。
原文链接
1月30日,蚂蚁灵波科技宣布开源具身世界模型LingBot-VA。该模型首次提出自回归视频-动作世界建模框架,将大规模视频生成与机器人控制深度融合。LingBot-VA能够在生成“下一步世界状态”的同时,直接推演并输出对应的动作序列,使机器人实现“边推演、边行动”的类人能力。这一技术突破为机器人领域带来全新可能性,进一步推动具身智能的发展。
原文链接
加载更多
暂无内容