Workflow
视觉语言融合的世界导航模型
icon
Search documents
中科洵瞳推出视觉语言融合导航系统,已实现数百台出货
创业邦· 2025-07-17 03:09
随着这一系统进入量产阶段,中科洵瞳正在让机器人"像人一样理解环境",变成现实。 让机器人"像人一样"理解环境 在工厂流水线、酒店与家庭等生活场景中,机器人早已不鲜见。但一旦进入开放式、 非结构化环境, 传统机器人便暴露出感知与执行能力的短板。例如,在医院找不到病房门、在园区遇到临时的障碍物 而停滞、无法识别具体楼层与桌椅位置等。 机器人如何像人类一样,通过"看"理解世界,并自主行动 ? 这正是中科洵瞳试图解决的难题。对这家2024年 底 刚成立的中科系AI企业而言,视觉不仅是感知, 更是理解、推理与决策的入口。围绕"视觉语言融合"这一技术路径,中科洵瞳构建出端侧可部署的世 界导航模型,并配套研发轻量化导航模组,打破传统机器人"看不懂、走不通、执行难"的三大瓶颈。 原因在于,机器人与人类在理解世界的方式上存在本质差异。人类依靠视觉就能快速处理复杂信息, 例如在陌生环境中,能凭借地标、空间结构等元素灵活调整路径,而无需预设地图。 但传统机器人的认知是割裂的,主要依赖预设地图导航、遥控器指令,一旦场景发生变化,就需要对 地图重新标注。这种认知模式,在实际使用中效率低下、维护成本高,难以满足配送、巡检、服务等 场景中 ...