视觉语言动作(VLA)模型

Search documents
谷歌拍了拍Figure说,“起来卷”
Hu Xiu· 2025-06-28 06:50
谷歌Gemini Robotics On-Device 模型发布于6月24日,AI 被引入了机器人,在整个过程中不需要持续的互联网连接,机器人实现了脱机工作。 6月28日消息,在谷歌的最新播客中,机器人在Gemini人工智能技术的加持下,未经教授就完成了一次"扣篮"动作,展现出迅速适应新场景的能力。 两天前的洛杉矶,运行着Gemini Robotics On-Device 模型的机器人还在RSS2025(机器人软件与系统大会)上完成了全球首个互动式现场展示。硅谷AI观察 人士Ted Xiao表示,"它仿佛是对未来的神奇一瞥——只需与你的机器人对话,它就会做出适当的回应,并尝试执行一些合理的操作。新的物体、新的命 令、新的技能。" 谷歌在X上表示,这是自己首个"视觉-语言-动作"模型,旨在能够帮助机器人更快、更高效地适应新任务和新环境。如果我们稍加回忆,今年2月底,Figure 发布的"历史上最重大的人工智能更新"——Helix也是一款用于通用人形机器人控制的"视觉-语言-动作"(VLA) 模型。 官方演示视频中,这一对灵巧手不仅可以拿起一支笔,还可以相互配合拔掉笔盖。 在接下来的测试中,这一对灵巧手完成了"放 ...
3个月斩获两轮数亿融资,头部具身智能机器人创企迎技术、商业化双重突破!
Robot猎场备忘录· 2025-04-21 02:38
温馨提示 : 点击下方图片,查看运营团队2025年最新原创报告(共210页) 说明: 欢迎约稿、刊例合作、行业人士交流 , 行业交流记得先加入 "机器人头条"知识星球 ,后添加( 微信号:lietou100w ) 微信; 若有侵权、改稿请联系编辑运营(微信:li_sir_2020); 正文: 2025年2月20日,国外知名人形机器人独角兽公司【Figure AI】 推出自研通用型视觉语言动作(VLA)模型— Helix ,并开创性采用 双系统架构( 负责"慢思考",处理高层语义和目标规划 S2和负责"快反应",实时执行和调 整动作 S1 ),开启双系统架构VLA模型先河,专为高频率、灵巧控制整个人形机器人上半身而设计。 2025年2月26日, 作为国外最早提出视觉语言动作(VLA)模型,拥有全球具身智能领域"最强创始团队的具身智能 大模型初创公司[Physical Intelligence](简称 PI或 π )基于其公司端到端大模型π0( pi-zero) 推出"分层交互 式机器人"系统(全称:Hierarchical Interactive Robot ,简称Hi Robot) ,它允许整合VLA模型,例 ...