光子之争:AI机器人视觉数据成核心战场,特斯拉与Meta竞逐现实捕捉赛道
在人工智能、机器人技术加速迭代的当下,一场围绕 "视觉数据" 的争夺战已悄然打响。摩根士丹利9月 22日发布研究报告,称视觉 - 语言 - 动作(VLA)模型是 AI 机器人实现自主交互的核心,而训练这类 模型的关键 ——"现实捕捉数据",正成为全球科技与制造巨头争夺的焦点。 从特斯拉 Optimus 机器人转向纯视觉训练,到 Meta 在可穿戴设备中嵌入超高清摄像头,再到布鲁克菲 尔德联合AI企业布局场景数据收集,"谁能大规模获取高质量现实场景视频,谁就能在 AI 机器人时代 占据先机" 已成为行业共识。 一、"光子之争" 的本质:视觉数据是 AI 机器人的 "燃料" 大摩报告用 "胖金枪鱼" 的比喻生动诠释了视觉数据的价值逻辑:在偏远岛屿上,一条 600 磅的蓝鳍金 枪鱼若无法捕获,其价值为零;唯有配备船、渔具与探测器,金枪鱼才具备百万美元级价值。视觉数据 的价值亦如此 —— 若缺乏收集与处理能力,全球视觉数据的潜在价值无法释放;而当企业掌握 "尧级 次浮点运算(10 次 / 秒)" 的数据处理能力时,现实场景数据将成为 AI 机器人技术突破的核心 "燃 料"。 这种认知正驱动企业将摄像头部署到家庭、办公 ...