MIT团队提出OpenTouch:首次实现真实场景下视觉、触觉、手部姿态的同步建模
具身智能之心·2025-12-24 00:25

在计算机视觉与机器人研究领域,人类通过视觉、触觉、本体感受的多模态融合实现精准物理交互,但现有技术长期依赖单一视觉模态,难以捕捉接触力、材质属 性等关键信息。 MIT、杜克大学等联合团队提出的 OPENTOUCH 框架 ,以 "野生环境全手触觉数据集" 为核心,通过 "硬件感知系统 - 大规模数据采集 - 多模态基 准测试" 的三层技术体系,首次实现真实场景下视觉、触觉、手部姿态的同步建模,为 embodied 学习与机器人操纵提供了全新范式。 论文题目:OPENTOUCH: Bringing Full-Hand Touch to Real-World Interaction OpenTouch — Project Page (opentouch-tactile.github.io):https://opentouch-tactile.github.io/ 核心亮点:首个野生环境全手触觉数据集、低 - cost 同步感知硬件、跨模态检索与分类基准、800+ 物体 / 14 场景覆盖 点击下方 卡片 ,关注" 具身智能 之心 "公众号 作者丨 Yuxin Ray Song等 编辑丨具身智能之心 本文只做学术分享 ...