Workflow
RoboMIND 2.0数据集
icon
Search documents
RoboMIND 2.0:面向通用化具身智能的大规模双臂移动操作数据集
具身智能之心· 2026-01-05 01:03
点击下方 卡片 ,关注" 具身智能 之心 "公众号 近期北京人形机器人和北京大学团队发布RoboMIND 2.0:一款面向通用化具身智能的大规模双臂移动操作数据集,通过整合 6 种异构机器人平台的 310K 轨迹 数据、多模态感知信息(含触觉)、高保真数字孪生资产及标准化标注体系,填补了现有数据集在双臂协调、移动操作、跨形态泛化等维度的空白。配套提出的 MIND-2 快慢双系统框架(高层 VLM 规划 + 低层 VLA 执行),基于离线强化学习融合成功与失败轨迹训练,在长时域复杂任务、多机器人协作场景中显著超 越传统模仿学习与现有 VLA 模型,为机器人通用化操作能力的提升提供了数据支撑与算法范式。 机器人操作领域的瓶颈和痛点 在机器人操作领域,数据驱动的模仿学习已成为突破传统控制局限的核心路径,但现有数据集与算法体系仍面临多重瓶颈,严重制约了机器人在真实场景中的通 用化部署: 1. 数据集维度单一,缺乏综合多样性 现有数据集多聚焦单一维度的多样性(如仅覆盖单一机器人形态、单一任务类型或单一环境),难以支撑跨场景、跨硬件的泛化学习。例如,多数主流数据集以 单臂固定基座操作数据为主,缺乏双臂协同、移动操作的大规 ...