1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

小米打通智驾和具身大模型,然后开源了

全球首个统一自动驾驶与机器人操作的基座模型开源了!小米汽车陈龙团队提出并开源了名为 MiMo-Embodied 的跨具身(X-Embodied)基座模型,成功解决了自驾与具身场景的知识迁移难题。

MiMo-Embodied 基于 MiMo-VL 架构,通过构建涵盖通用视觉、具身任务及驾驶场景的高质量数据集,并采用包含思维链(CoT)和强化学习(RL)的四阶段训练策略,有效弥合了室内操作与户外驾驶之间的领域鸿沟。实测显示,该模型在自动驾驶与具身智能共计 29 个基准测试中超越现有专用及通用模型,实现了跨领域的最先进性能。

传统视觉语言模型(VLMs)多专注于单一领域,缺乏统一性,导致领域差距和迁移困难。此外,评估体系缺失也限制了跨领域能力的衡量。为此,MiMo-Embodied 将自动驾驶与具身智能任务整合到一个统一模型中,通过以下架构实现:
1. Vision Transformer (ViT):编码图像、视频等视觉输入;
2. 投影器(Projector):将视觉信息映射到与大语言模型对齐的潜在空间;
3. 大语言模型(LLM):结合视觉与文本进行推理,生成上下文相关的响应。

研究还开发了一套系统的数据构建与分阶段训练策略。数据涵盖通用多模态理解、具身智能(如可供性预测、任务规划)和自动驾驶(如环境感知、驾驶规划)。四阶段训练包括:
1. 具身智能监督微调;
2. 自动驾驶监督微调;
3. 思维链推理微调;
4. 强化学习微调。

实验表明,MiMo-Embodied 在具身导航、操作任务及自动驾驶复杂场景中均表现出色,尤其在转弯、避障和变道等交互式操作中提升显著。未来,团队计划基于该模型探索具身智能视觉-语言-动作(VLA)模型,以增强复杂环境中的交互能力。

论文一作郝孝帅博士今年8月加入小米汽车,项目负责人陈龙博士曾主导Wayve和Lyft的自动驾驶研发工作。相关资源已开源:
论文链接:https://arxiv.org/abs/2511.16518
GitHub:https://github.com/XiaomiMiMo/MiMo-Embodied
Huggingface:https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B

原文链接
本文链接:https://kx.umi6.com/article/29174.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
智能手机市场半年考:小米逼近苹果,华为带领“Others”加速追击
2024-07-25 13:54:24
VLA改写智驾竞速规则,英伟达加持,黑马玩家4个月撬走10%份额
2025-01-25 13:59:37
小米公布人工智能通信专利
2025-02-11 15:57:20
罗福莉C位亮相小米,离职DeepSeek后首次官宣
2025-11-12 16:09:20
小米开源首个原生端到端语音大模型
2025-09-19 10:10:03
小米相关人员:“CyberOne 人形机器人即将量产”消息不实
2025-03-10 19:53:07
前DeepSeek研究员罗福莉已加入小米:全力奔赴心目中的AGI
2025-11-12 14:08:59
华为智驾首次上车比亚迪!38万元硬派越野车标配端到端
2024-11-12 23:17:17
小米自研 MINT 统一模型部署平台发布:降低 AI 开发门槛,优先向生态链公司开放
2025-12-17 12:41:00
中信证券:AI驱动商业化加速 2025智驾拐点正在到来
2025-01-09 08:50:57
中美芯片激战:小米、联想加速“造芯”,黄仁勋否认对中国出口降规H20 AI芯片
2025-05-19 09:15:04
杀入AI眼镜赛道,小米能否引爆市场?
2025-06-22 19:25:51
小米市值再创新高!雷军进厂抓产能 “最贵产品”月底上市
2025-02-07 15:03:00
24小时热文
更多
扫一扫体验小程序