UC Berkeley最新VideoMimic的框架:基于视觉模仿学习的类人机器人跨环境控制策略生成方法
机器人大讲堂·2025-05-25 12:17
随着人工智能技术的不断发展,机器人在执行日常任务中的能力也在逐渐提升。如何让机器人执行像人类一样 爬楼梯、坐下和站立等复杂动作,成为机器人学领域的重要课题。传统的机器人控制方法通常依赖于精确的物 理模型、手工设计的奖励函数或运动捕捉类数据来训练机器人。然而,这些方法往往需要大量的人工干预和特 定环境的设计,难以适应真实世界中多变的情境。 首先,系统从单目视频中提取人体的三维关节位置,并利用结构光或深度学习方法重建周围环境。通过联合优 化技术,将人体的三维运动轨迹与环境几何信息恢复至全局坐标系中,确保二者的一致性,以适配不同的仿真 与物理引擎。 接着,系统将重建的运动数据与环境信息转化为类人机器人可执行的动作,并在仿真环境中进行训练。通过采 用DeepMimic风格的强化学习方法,机器人学习如何在不同环境中模仿人类视频中的动作。 近日UC Berkeley大学研究人员提出了一套名为VideoMimic的框架,该框架通过日常生活中的视频,自动生 成类人机器人的控制策略。该方法不需要依赖复杂的传感器数据或手工设计的奖励函数,而是通过观看普通的 单目视频(如智能手机拍摄的日常视频),将视频中的人类动作和环境信息转化为 ...