Workflow
TwinRL
icon
Search documents
真机RL杀疯了,机器人自学20分钟100分,数字孪生封神
3 6 Ke· 2026-02-13 07:32
然后你把香蕉往右边挪了15厘米。 机械臂愣住了。 它不是「没学好」,而是从来没见过那个位置。 对它来说,桌子右半边就是另一个宇宙。 这不是段子,这是2025年几乎所有VLA模型在真实世界里的真实处境。 【导读】TwinRL用手机扫一遍场景构建数字孪生,让机器人先在数字孪生里大胆探索、精准试错,再回到真机20分钟跑满全桌面100%成功率——比现 有方法快30%,人类干预减少一半以上。 让机器人真正「走出演示数据」的那一刻,发生了什么? 你花了两周时间,手把手遥操作教一个机械臂抓香蕉放盘子。桌子左半边,它学得像模像样,十拿九稳。 过去两年,Vision-Language-Action(VLA)模型席卷机器人领域。 从「看图+听话+动手」,到多任务、多场景的泛化执行,VLA让机器人第一次看起来像「理解世界」的智能体。 论文里成功率动辄90%以上,演示视频拍得漂亮极了。 但真正做过真机实验的人都知道,这里面藏着一个所有人都心知肚明、却很少有人正面回答的问题: 如果没有人类不断示范,机器人还能不能自己学? 答案是——几乎不能。 现实的残酷在于: 但这些都还不是最致命的。 最致命的是—— RL的探索空间,被SFT演示数据 ...