全球首个基于视频转3D具身数据的数据集开源!动捕、遥操获取数据的时代要结束了?
机器人大讲堂·2026-01-16 00:03
通过互联网视频提取具身智能训练数据,已成为行业突破 "数据荒"的 重要 方向 , 特斯拉早在 2025 年就明 确布局,Optimus 机器人已实现通过第一视角视频 学习 扫地、炒菜等 16 项任务,后续更 是加大使用 互联 网第三人称视频扩大训练规模,复刻 FSD 的成功路径。 国内不少企业也 在 跟进这一 技术路线 ,但行业 依旧 处于各自为战的状态 , 多数企业的数据仅服务于自有 模型,既不对外开源,也缺乏统一的质量评估标准,导致数据精度、一致性等核心指标无法量化验证,难以形 成协同效应。 不过,现在这种现状即将迎来转机。 在机器人学习领域, "数据荒" 一直是制约技术落地的核心痛点。传统机器人训练依赖昂贵的遥操作设备或专 业动捕工作室,不仅成本高企,还难以覆盖真实世界的多样化场景。而互联网上海量的人类手-物交互视频, 却因物理不一致、形态不匹配等问题,长期被挡在机器人训练的数据大门外 , 如果能够有效解决这个棘手问 题,那么机器人产业将面临一次彻底的变革。 近日,清华大学与枢途科技研发团队联合推出的 RoboWheel数据引擎正式发布 。该引擎可将普通单目 RGB/RGB-D 相机拍摄的人类手-物交互 ...