视觉 - 语言 - 行动(VLA)

Search documents
全球首个自动驾驶VLA综述重磅发布:VLA自驾模型全面拆解(麦吉尔&清华等)
自动驾驶之心· 2025-07-02 13:54
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 今天自动驾驶之心为大家分享 麦吉尔大学、清华大学、小米公司 和威斯康辛麦迪 逊的研究团队 最新的工作! 面向自动驾驶的视觉-语言-动作模型综述! 如果您有 相关工作需要分享,请在文末联系我们! 自动驾驶课程学习与技术交流群事宜,也欢迎添加小助理微信AIDriver004做进一 步咨询 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 论文作者 | Sicong Jiang等 编辑 | 自动驾驶之心 "自动驾驶未来已来?" 当视觉(Vision)、语言(Language)和行动(Action)三大能力在一个模型中融合,自动驾驶的未来将走 向何方? 近日,来自麦吉尔大学、清华大学、小米公司和威斯康辛麦迪逊的研究团队联合发布了全球首篇针对自动 驾驶领域的视觉-语言-行动(Vision-Language-Action, VLA)模型的全面综述。这篇题为《A Survey on Vision-Language-Action Models for Autonomous Driving 》 的 论 文 , 系 统 性 地 ...
速递|2025年Figure将人形机器人用于家庭场景,进行“alpha 测试”
Z Potentials· 2025-02-28 06:37
公司瞄准了利润更为丰厚的工业部署。 2024 年初,该公司透露正在南卡罗来纳州的宝马工厂试点其人形系统。工厂和仓库被视为试验和部署的首选逻辑场 所。 它们比家庭环境更加结构化和安全,而像宝马这样的汽车制造商也乐于为测试投入资金。 其他类人机器人公司如 Apptronik 和特斯拉也表达了将这类系统引入家庭的兴趣。除了承担一系列家务任务外,机器人长期以来被视为解决日本和美国等国 家人口老龄化问题的一种方式。这些系统提供的协助可以帮助老年人继续在护理机构之外独立生活。 图片来源: Figure Figure 计划比预期更早将其人形机器人引入家庭。 CEO Brett Adcock 周四证实,这家位于湾区的机器人初创公司将于 2025 年晚些时候开始在家居环境中对其 Figure 02 机器人进行" alpha 测试"。 该高管 表示,这一加速的时间表得益于公司名为 Helix 的"通用型"视觉 - 语言 - 行动( VLA )模型。 Adcock 的评论发表于 Figure 宣布机器学习平台一周后。 Helix 旨在处理视觉数据和自然语言输入,以加速系统学习新任务的速度。 本月早些时候, Figure 透露将终止 ...