Google DeepMind近日推出全新机器人控制模型Gemini Robotics On-Device,该模型可在机器人本地运行,具备视觉识别、语言理解和动作执行能力,即使断网也能独立完成任务。该模型基于Vision-Language-Action(VLA)架构,能理解人类指令并执行复杂操作,如拉开背包拉链、叠衣等。其优势在于低延迟和高稳定性,适用于医疗、救援和工业场景。开发者仅需提供50至100次人工演示即可训练模型,并可适配多种机器人平台。目前,该模型已向部分开发者开放试用,未来有望加速机器人技术普及。
原文链接
本文链接:https://kx.umi6.com/article/20727.html
转载请注明文章出处
相关推荐
换一换
谷歌拍了拍Figure说,“起来卷”
2025-06-28 15:21:13
谷歌推出本地具身智能模型
2025-06-25 11:30:10
断网都没用,机器人终于“摆脱”人类控制,Google 首发离线AI 大脑,一句话让它干活
2025-06-25 12:29:37
我国拟修改网络安全法促进人工智能健康发展
2025-10-24 18:49:31
限60天以内!特朗普政府拟加快电网接入审批 支持AI数据中心建设
2025-10-24 11:38:17
硅谷投资人评估AI泡沫的5项指标
2025-10-24 10:31:18
高盛:对冲基金对AI投资敞口达到近9年来新高 押注亚股和美股将上涨
2025-10-24 18:49:20
快手进军“AI 编程”赛道,推出“工具 + 模型 + 平台”产品矩阵
2025-10-23 16:09:13
Claude 看齐 ChatGPT 新增 AI 自动记忆,能记住你的每一次对话
2025-10-24 09:31:18
与 OpenAI“划清界限”,微软 AI 负责人苏莱曼称不会推出“成人模式”
2025-10-24 12:37:06
PCB业绩浪来袭!热度传导至上游 扩产潮下谁将受益?
2025-10-25 15:31:36
特斯拉人形机器人再延期,消息称因为双手只能用六星期
2025-10-24 19:49:44
比亚迪用大模型,刷榜全球最低油耗
2025-10-24 21:53:50
541 文章
282400 浏览
24小时热文
更多
-
2025-10-25 18:38:20 -
2025-10-25 18:37:15 -
2025-10-25 16:32:54