Workflow
单演示数据生成
icon
Search documents
只演示一次,机器人就会干活了?北大&BeingBeyond联合团队用“分层小脑+仿真分身”让G1零样本上岗
量子位· 2025-11-13 09:25
DemoHLM团队 投稿 量子位 | 公众号 QbitAI 近日,来自北京大学与BeingBeyond的研究团队提出 DemoHLM 框架,为人形机器人移动操作(loco-manipulation)领域提供一种新思 路——仅需1次仿真环境中的人类演示,即可自动生成海量训练数据,实现真实人形机器人在多任务场景下的泛化操作,有效解决了传统方 法依赖硬编码、真实数据成本高、跨场景泛化差的核心痛点。 核心挑战:人形机器人移动操作的"三重困境" 移动操作是人形机器人融入人类环境的核心能力(如搬箱子、开门、递物等),但长期受限于三大难题: 现有方案要么局限于仿真场景,要么需消耗数百小时真实遥操作数据,难以满足家庭、工业等复杂场景的实用需求。 DemoHLM:分层架构与数据生成革新,破解三重困境 DemoHLM的核心创新在于"分层控制+单演示数据生成"双引擎,既保证了全身运动的稳定性,又实现了极低数据成本下的泛化学习。 数据效率低 :传统方法需采集大量真实机器人遥操作数据,成本极高且难以规模化; 任务泛化差 :依赖任务特定的硬编码设计(如预定义子任务、专属奖励函数),换任务需重新开发; Sim-to-Real迁移难 :基于 ...