微软正式推出首个机器人大模型Rho-alpha!
当机器人从标准化车间走向复杂家居、医疗场景,仅靠视觉和语言指令已难以应对动态物理环境。 1月21日, 微软研究院( Microsoft Research )正式发布首款基于 Phi 视觉 - 语言模型家族的机器人专用 AI 系统 Rho-alpha ,这款被定义为" VLA+ "的创新模型,通过植入触觉感知、融合仿真训练与人类反馈机 制,让机器人在双手协同操作中具备了更强的适应性与可靠性,为物理 AI 的落地按下加速键。 微软表示, Rho-alpha 的突破在于打破了 VLA 的能力边界,将感知维度从视觉拓展至触觉,同时构建了"感 知 - 行动 - 反馈"的闭环架构,这也是其被称为" VLA+ "的核心原因。 在微软公布的演示视频中,两台搭载触觉传感器的 UR5e 协同机械臂,在 Rho-alpha 驱动下执行插头插入任 务:左臂精准定位接口,右臂调整姿态推进,当遇到接触阻力时,传感器迅速反馈力信号,模型随即微调角度 避免卡滞。即便右臂出现定位偏差,操作人员通过 3D 鼠标实时干预后,系统能吸收纠正信息并优化动作轨 迹。 目前 Rho-alpha 已实现触觉感知与视觉、语言指令的跨模态融合,微软透露,后续还 ...