视觉 - 语言 - 动作(VLA)范式
Search documents
人形机器人自主控制新突破:VLA驱动全身协同,行走与操作同时完成
Feng Huang Wang· 2025-12-17 07:57
据介绍,WholeBodyVLA通过从人类第一视角视频中学习移动与操作的潜在动作表示,以降低对昂贵机 器人遥操作数据的依赖。同时,研究团队设计了一种面向移动操作的强化学习控制器,通过简化控制目 标来提升运动执行的稳定性。 实验验证显示,该框架使机器人能在不同起始位置走向目标并完成操作,并对场景和物体表现出一部分 泛化能力,在干扰地形上也能保持基本的移动方向与平衡。研究团队表示,该工作为将视觉-语言-动作 (VLA)范式扩展至双足人形机器人全身控制提供了可行路径。 凤凰网科技讯 12月17日,让人形机器人能够像人一样完成装箱、搬运、推车等移动操作任务,一直是 人们对具身智能的期待。近日,来自香港大学、智元AGIBOT、复旦大学和上海创智学院的联合研究团 队提出了WholeBodyVLA,一种面向真实世界的人形机器人全身 Vision–Language–Action框架。该工作 基于智元灵犀X2研究发布,将VLA扩展至双足人形机器人的全身控制,验证了其在全身loco- manipulation任务中的可行性。 与原地操作相比,loco-manipulation的难点不在于单一技能,而在于行走与操作必须在同一任务中 ...