大晓机器人发布“以人为中心”ACE具身研发范式
12月18日,大晓机器人发布行业首创的ACE具身研发范式、首个开源且商业应用的开悟世界模型3.0(Kairos3.0)、让具身本体拥有自主空间智能的具身超级大 脑模组A1,与行业伙伴共同构建全链自主可控、开放共赢的产业级生态体系。 作为ACE范式核心技术之一,环境式数据采集技术通过跨视角多模态设备,融合视觉、触觉、语音、力学规律等多维度数据,采用物理级建模与全场景覆盖 的创新设计,为具身智能模型训练提供"人—物—场"全要素精准数据支撑。 这种技术路径为具身智能带来四大核心数据价值:数据维度更全面,完成超10个视角、8种模态、4大类物品属性的多模态数据升级,实现全要素覆盖;任务 覆盖更长程,支撑分钟级、数百种原子动作的复杂任务;交互精度更高,达到亚像素级标准,可精准追踪人手精细化操作等复杂动作;采集效率更具规模 化,能快速完成从十万小时到千万小时的海量数据(603138)积累。 当前,具身智能行业面临数据层面的关键瓶颈。相较于智能驾驶领域借助仿真可获取的庞大数据量,具身智能的真机数据量级仅为10万小时,存在数量级差 距,令传统依赖真机遥操或纯视觉学习的研发路径,在成本、效率与通用性上均遭遇挑战。 这背后,是"以 ...