1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

小米打通智驾和具身大模型,然后开源了

全球首个统一自动驾驶与机器人操作的基座模型开源了!小米汽车陈龙团队提出并开源了名为 MiMo-Embodied 的跨具身(X-Embodied)基座模型,成功解决了自驾与具身场景的知识迁移难题。

MiMo-Embodied 基于 MiMo-VL 架构,通过构建涵盖通用视觉、具身任务及驾驶场景的高质量数据集,并采用包含思维链(CoT)和强化学习(RL)的四阶段训练策略,有效弥合了室内操作与户外驾驶之间的领域鸿沟。实测显示,该模型在自动驾驶与具身智能共计 29 个基准测试中超越现有专用及通用模型,实现了跨领域的最先进性能。

传统视觉语言模型(VLMs)多专注于单一领域,缺乏统一性,导致领域差距和迁移困难。此外,评估体系缺失也限制了跨领域能力的衡量。为此,MiMo-Embodied 将自动驾驶与具身智能任务整合到一个统一模型中,通过以下架构实现:
1. Vision Transformer (ViT):编码图像、视频等视觉输入;
2. 投影器(Projector):将视觉信息映射到与大语言模型对齐的潜在空间;
3. 大语言模型(LLM):结合视觉与文本进行推理,生成上下文相关的响应。

研究还开发了一套系统的数据构建与分阶段训练策略。数据涵盖通用多模态理解、具身智能(如可供性预测、任务规划)和自动驾驶(如环境感知、驾驶规划)。四阶段训练包括:
1. 具身智能监督微调;
2. 自动驾驶监督微调;
3. 思维链推理微调;
4. 强化学习微调。

实验表明,MiMo-Embodied 在具身导航、操作任务及自动驾驶复杂场景中均表现出色,尤其在转弯、避障和变道等交互式操作中提升显著。未来,团队计划基于该模型探索具身智能视觉-语言-动作(VLA)模型,以增强复杂环境中的交互能力。

论文一作郝孝帅博士今年8月加入小米汽车,项目负责人陈龙博士曾主导Wayve和Lyft的自动驾驶研发工作。相关资源已开源:
论文链接:https://arxiv.org/abs/2511.16518
GitHub:https://github.com/XiaomiMiMo/MiMo-Embodied
Huggingface:https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B

原文链接
本文链接:https://kx.umi6.com/article/29174.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
小米的首代机器人VLA大模型来了!丝滑赛德芙,推理延迟仅80ms丨全面开源
2026-02-12 21:45:01
小米发布 Miloco 智能家居未来探索方案,对全社会开放
2025-11-14 15:02:49
不收费、不订阅、不选装!小鹏G6全系标配图灵AI智驾
2025-03-13 20:38:28
小米自研 MINT 统一模型部署平台发布:降低 AI 开发门槛,优先向生态链公司开放
2025-12-17 12:41:00
小米造车资质批下来了,正式告别“北京”
2024-07-15 09:34:01
小米全面开源具身大模型MiMo-Embodied
2025-11-21 21:43:50
小米:2024年IoT与生活消费产品业务营收首次突破千亿元 同比增长30%
2025-03-18 18:48:36
中美芯片激战:小米、联想加速“造芯”,黄仁勋否认对中国出口降规H20 AI芯片
2025-05-19 09:15:04
该重新认识下雷军了
2025-03-19 08:18:33
小米Rokid雷鸟李未可,开启百镜大战2.0
2025-07-08 08:40:22
解码小米714亿资本棋局 雷军“押宝”AI新战场 |聚焦
2025-03-19 20:51:52
小米陈龙团队首作:统一具身与自动驾驶的开源模型
2025-11-22 20:33:04
千里科技董事长印奇:未来的车将越来越趋向于机器人
2025-03-03 23:43:24
24小时热文
更多
扫一扫体验小程序