Google DeepMind近日推出全新机器人控制模型Gemini Robotics On-Device,该模型可在机器人本地运行,具备视觉识别、语言理解和动作执行能力,即使断网也能独立完成任务。该模型基于Vision-Language-Action(VLA)架构,能理解人类指令并执行复杂操作,如拉开背包拉链、叠衣等。其优势在于低延迟和高稳定性,适用于医疗、救援和工业场景。开发者仅需提供50至100次人工演示即可训练模型,并可适配多种机器人平台。目前,该模型已向部分开发者开放试用,未来有望加速机器人技术普及。
原文链接
本文链接:https://kx.umi6.com/article/20727.html
转载请注明文章出处
相关推荐
.png)
换一换
断网都没用,机器人终于“摆脱”人类控制,Google 首发离线AI 大脑,一句话让它干活
2025-06-25 12:29:37
谷歌推出本地具身智能模型
2025-06-25 11:30:10
谷歌拍了拍Figure说,“起来卷”
2025-06-28 15:21:13
436 文章
75142 浏览
24小时热文
更多

-
2025-07-19 14:57:21
-
2025-07-19 14:56:08
-
2025-07-19 14:55:01