可提示图像分割(Promptable Visual Segmentation
Search documents
从SAM1到SAM3,Meta做了什么?
自动驾驶之心· 2025-12-06 03:04
本文只做学术分享,如有侵权,联系删文 点击下方 卡片 ,关注" 大模型之心Tech "公众号 戳我-> 领取大模型巨卷干货 从SAM1到SAM3,Meta做了什么? 紧接着, SAM2 (2024年发布)在架构上进行了重要优化,增强了对 视频分割和动态场景 的支持,同时提升了模型的稳定性和精度。SAM2强化了模型对多个实 例的跟踪能力,使得该模型不仅在静态图像中表现出色,也能够应对视频中复杂的物体动态变化。 然而, SAM3 的发布更是让人瞠目结舌。相比于SAM1和SAM2,SAM3不仅在精度上达到了全新高度,还拥有更强大的多模态支持,能够通过 语音、文本、图像 等多种输入方式进行精准的物体分割。通过全新的 Promptable Concept Segmentation (PCS)任务,SAM3在开放词汇概念分割和多物体跟踪方面,达到了前所未 有的精准度和灵活性。PCS让SAM3能够应对更复杂的开放词汇概念,不仅仅是简单的物体分割,而是可以识别并分割任何你想要的对象,无论是猫、狗,还是"黄 色的出租车",甚至是"城市中的小巷子"。 SAM1、SAM2,到SAM3,每一次进化都是一次飞跃 | 技术指标 | SA ...