具身大模型Vision-Language-Action(VLA)
Search documents
不用再对比paper了,一个网站看完各个VLA 的性能
具身智能之心· 2026-01-13 00:54
点击下方 卡片 ,关注" 具身智能 之心 "公众号 更多干货,欢迎加入国内首个具身智能全栈学习社区 : 具身智能之心知识星球 (戳我) , 这里包含所有你想要的。 过去两三年间,具身大模型 Vision-Language-Action (VLA)在机器人操作领域取得了迅速进展,相关工作不断涌现,不同模型在多项 benchmark 上持续刷新性能 纪录。然而,由于研究成果分散于各类论文之中,评测任务与实验设定差异较大,评价指标口径亦不统一,研究者难以对当前 VLA 技术的发展脉络与整体水平形 成清晰而系统的认识。 为解决这一问题,上海交大&物智进化团队推出了最全面的具身大模型性能榜单 —— Evo-SOTA ,旨在对主流 VLA 模型进行统一整理、系统汇总、直观展示,并 提供可检索、可筛选、可视化的比较工具,帮助研究人员快速了解该领域的发展脉络与最新技术前沿。 repo地址:https://github.com/MINT-SJTU/Evo-SOTA.io Live Demo: https://sota.evomind-tech.com 网站整体功能概览 榜单的核心目标是: 编辑丨 具身智能之心 本文只做学术分享 ...