Workflow
人形机器人全身控制
icon
Search documents
行为基础模型可实现高效的人形机器人全身控制
具身智能之心· 2025-07-23 08:45
点击下方 卡片 ,关注" 具身智能之心 "公众号 >> 点击进入→ 具身 智能之心 技术交流群 编辑丨 机器之心 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 人形机器人作为用于复杂运动控制、人机交互和通用物理智能的多功能平台,正受到前所未有的关注。然而,由于其复杂的 动力学、欠驱动和多样化的任务需求,实现高效的人形机器人全身控制 (Whole-Body Control,WBC) 仍然是一项根本性的挑 战。 虽然基于强化学习等方法的控制器在特定任务中展现出优越的性能,但它们往往只具有有限的泛化性能,在面向新场景时需 要进行复杂且成本高昂的再训练。为了突破这些限制,行为基础模型(Behavior Foundation Model,BFM)应运而生,它利 用大规模预训练来学习可重用的原始技能和广泛的行为先验,从而能够零样本或快速适应各种下游任务。 来自香港理工大学、逐际动力、东方理工大学、香港大学和 EPFL 等知名机构的研究者合作完成题为 《A Survey of Behavior Foundation Model: Next-Generatio ...
人形机器人首次打通视觉感知与运动断层,UC伯克利华人博士让宇树G1现场演示
量子位· 2025-06-25 05:00
闻乐 发自 凹非寺 量子位 | 公众号 QbitAI 不用提前熟悉环境,一声令下,就能让宇树机器人坐在椅子上、桌子上、箱子上! 还能直接解锁 "跨过箱子"、"敲门" 等任务~ 这是来自UC伯克利、卡内基梅隆大学等团队的最新研究成果 LeVERB框架 —— 基于 模拟数据训练 实现 零样本部署 ,让人形机器人通过感知新环境,理解语言指令就能直接完成全身动作。 传统人形机器人要么 "能看懂指令却动不了"(缺乏全身控制能力),要么 "只能机械执行动作却读不懂环境"(依赖人工预设动作库)。 LeVERB首次打通了 视觉 语义理解 与 物理运动 两者之间的断层,让机器人能像人类一样从"想"到"做",自动感知环境,直接遵循指令完成 动作。 上面展示的"坐下"动作就是通过 " 相机感知环境+'坐在[椅子/盒子/桌子]上'指令" 完成的: 团队还推出了配套基准: LeVERB-Bench 。 这是首个面向人形机器人WBC(全身控制)的 "仿真到真实" 视觉-语言闭环基准,包含10类超150个任务。 团队将该框架部署在 宇树G1机器人 上进行基准测试,结果显示: 在简单视觉导航任务中 零样本成功率达80% ,整体任务成功率 5 ...