ForceVLA:通过力感知MoE增强接触丰富操作的VLA模型
具身智能之心·2025-06-18 10:41
点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Jiawen Yu等 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 >> 点击进入→ 具身智能之心 技术交流群 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要 的。 研究背景与问题提出 在机器人操作领域,视觉-语言-动作(VLA)模型通过利用预训练的视觉和语言表示,推动了通用机器人 操作的发展。然而,这些模型在处理需要涉及力的精细控制的接触丰富任务时,尤其是在视觉遮挡或动态 不确定性情况下,表现出明显的局限性。现有的VLA模型严重依赖视觉和语言线索,往往忽略了力传感这 一对于精确物理交互至关重要的模态。 人类在操作过程中会自然地整合触觉和本体感受反馈来调整操作策略,但当前的VLA模型在面对插入、工 具使用或装配等任务时,经常在遮挡或视觉条件较差的情况下表现不佳,导致行为脆弱或任务失败。此 外,不同任务阶段对力的要求也不同,如精细抓取、受控插入和顺应性表面接触等,每个阶段都需要不同 形式的力调制,而现有方法缺乏感知和适应这些动态变化的机制。 核心创新点 (一)ForceVLA框架 ...