Meta SAM3开源:让图像分割,听懂你的话

简介: Meta发布并开源SAM 3,首个支持文本或视觉提示的统一图像视频分割模型,可精准分割“红色条纹伞”等开放词汇概念,覆盖400万独特概念,性能达人类水平75%–80%,推动视觉分割新突破。

Meta正式发布并开源新一代Segment Anything Model 3(SAM 3),一个用于图像和视频中可提示分割的统一基础模型,能够通过文本提示或点、框、掩码等视觉提示来检测、分割和跟踪目标。


图像分割方向一直以来的难题是用户往往希望分割那些不在预定义列表中的概念,但传统模型通常只能分割特定目标。比如,现有模型可以轻松分割“人”这类常见对象,却难以处理如“红色条纹伞”这样更精细、更具体的视觉概念。


SAM 3 通过引入“可提示概念分割”能力,有效克服了这一局限:它能够根据文本提示或示例图像,自动识别并分割出所有符合该概念的实例。

SAM3跟踪一只毛发蓬松的金色寻回犬

SAM3跟踪穿白色球衣的球员

SAM 3 首次实现了对由简短文本短语或示例图像所定义的开放词汇概念的所有实例进行完整分割,能够处理数量远超以往的开放词汇提示。在Meta新构建的 SA-Co 基准测试中,该模型在包含 27 万个独特概念的数据集上达到了人类性能的 75%–80%,SAM3能支持的独特概念数量是现有基准的 50 倍以上。

开源地址:

ModelScope:

http://modelscope.cn/organization/facebook

GitHub:

https://github.com/facebookresearch/sam3?tab=readme-ov-file


模型架构:可提示概念分割

SAM 3 的模型架构延续并融合了 Meta 在人工智能领域的多项前沿成果。其中文本编码器与图像编码器均源自“Meta Perception Encoder”——这是Meta于今年四月开源的一个模型,它能构建更强大的计算机视觉系统,辅助用户完成图像识别、目标检测等日常任务。相较于此前使用的编码器,采用 Meta Perception Encoder 使模型性能实现了显著跃升。检测器组件基于 DETR 模型,这是首个将 Transformer 应用于目标检测的开创性工作。SAM 2 中所采用的记忆库与记忆编码器,则构成了当前跟踪器(Tracker)模块的基础。此外,还整合了多个开源组件,包括公开数据集、基准测试集和模型改进方法,以推动本项工作的持续进步。

基于人工智能与人工标注的新型数据引擎

为获取涵盖广泛类别与视觉领域的高质量标注图像,Meta构建了一个可扩展的数据引擎,将 SAM 3、人工标注员与 AI 模型整合为一个闭环系统,显著提升了标注效率:在处理“否定提示”(即图像/视频中不存在的概念)时,速度比纯人工快约 5 倍;即使在具有挑战性的细粒度领域,对于“肯定提示”,标注速度也比人工快 36%,通过这一人机协同系统,Meta构建一个包含超过400 万个独特概念的大规模、多样化训练数据集。

该引擎的流程如下:一个由 SAM 3 和基于 Llama 的图像字幕生成系统组成的 AI 管道,自动从海量图像和视频中挖掘内容,生成描述性字幕,解析为文本标签,并生成初始分割掩码(如上图中的“候选对象”)。

随后,人工标注员与 AI 标注员共同验证并修正这些候选结果,形成一个持续反馈的闭环机制——在快速扩展数据集覆盖范围的同时,不断优化数据质量。AI 标注员基于经过专门训练的 Llama 3.2v 模型,其在标注任务(如判断掩码质量是否达标、是否完整覆盖了图像中某一概念的所有实例)上的准确率,已达到甚至超越人类标注员水平。


基准测试数据集

为评估模型在大词汇量下的检测与分割能力,我们构建了全新的基准测试——Segment Anything with Concepts(SA-Co),专门用于图像与视频中的可提示概念分割。与以往基准相比,SA-Co 要求模型识别的语义概念数量大幅增加。SA-Co 数据集也开源,支持研究复现,并推动开放视觉分割领域的持续创新。

模型推理

环境安装:

# 1、创建新的conda环境
conda create -n sam3 python=3.12
conda deactivate
conda activate sam3
# 2、安装pytorch-cuda
pip install torch==2.7.0 torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
# 3、克隆仓库并安装
git clone https://github.com/facebookresearch/sam3.git
cd sam3
pip install -e .
# 3、安装额外的依赖
# 跑notebook的example
pip install -e ".[notebooks]"
# 开发环境
pip install -e ".[train,dev]"


模型下载:

modelscope download --model facebook/sam3 --local_dir checkpoints


推理脚本:

import torch
#################################### For Image ####################################
from PIL import Image
from sam3.model_builder import build_sam3_image_model
from sam3.model.sam3_image_processor import Sam3Processor
# Load the model
model = build_sam3_image_model()
processor = Sam3Processor(model)
# Load an image
image = Image.open("<YOUR_IMAGE_PATH.jpg>")
inference_state = processor.set_image(image)
# Prompt the model with text
output = processor.set_text_prompt(state=inference_state, prompt="<YOUR_TEXT_PROMPT>")
# Get the masks, bounding boxes, and scores
masks, boxes, scores = output["masks"], output["boxes"], output["scores"]
#################################### For Video ####################################
from sam3.model_builder import build_sam3_video_predictor
video_predictor = build_sam3_video_predictor()
video_path = "<YOUR_VIDEO_PATH>" # a JPEG folder or an MP4 video file
# Start a session
response = video_predictor.handle_request(
    request=dict(
        type="start_session",
        resource_path=video_path,
    )
)
response = video_predictor.handle_request(
    request=dict(
        type="add_prompt",
        session_id=response["session_id"],
        frame_index=0, # Arbitrary frame index
        text="<YOUR_TEXT_PROMPT>",
    )
)
output = response["outputs"]

更多案例

0bc3syacoaaaa4apqey6q5uvbfwde6laajya.f10002.mp4

点击即可跳转模型链接:https://modelscope.cn/models/facebook/sam3


目录
相关文章
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
AgentEvolver:让智能体系统学会「自我进化」
AgentEvolver 是一个自进化智能体系统,通过自我任务生成、经验导航与反思归因三大机制,推动AI从“被动执行”迈向“主动学习”。它显著提升强化学习效率,在更少参数下实现更强性能,助力智能体持续自我迭代。开源地址:https://github.com/modelscope/AgentEvolver
934 38
|
2月前
|
安全 Java Android开发
深度解析 Android 崩溃捕获原理及从崩溃到归因的闭环实践
崩溃堆栈全是 a.b.c?Native 错误查不到行号?本文详解 Android 崩溃采集全链路原理,教你如何把“天书”变“说明书”。RUM SDK 已支持一键接入。
916 241
|
2月前
|
人工智能 前端开发 算法
大厂CIO独家分享:AI如何重塑开发者未来十年
在 AI 时代,若你还在紧盯代码量、执着于全栈工程师的招聘,或者仅凭技术贡献率来评判价值,执着于业务提效的比例而忽略产研价值,你很可能已经被所谓的“常识”困住了脚步。
1465 89
大厂CIO独家分享:AI如何重塑开发者未来十年
|
21天前
|
机器学习/深度学习 缓存 物联网
打造社交APP人物动漫化:通义万相wan2.x训练优化指南
本项目基于通义万相AIGC模型,为社交APP打造“真人变身跳舞动漫仙女”特效视频生成功能。通过LoRA微调与全量训练结合,并引入Sage Attention、TeaCache、xDIT并行等优化技术,实现高质量、高效率的动漫风格视频生成,兼顾视觉效果与落地成本,最终优选性价比最高的wan2.1 lora模型用于生产部署。(239字)
805 102
|
1月前
|
存储 自然语言处理 测试技术
一行代码,让 Elasticsearch 集群瞬间雪崩——5000W 数据压测下的性能避坑全攻略
本文深入剖析 Elasticsearch 中模糊查询的三大陷阱及性能优化方案。通过5000 万级数据量下做了高压测试,用真实数据复刻事故现场,助力开发者规避“查询雪崩”,为您的业务保驾护航。
1316 89
|
2月前
|
SQL 数据采集 人工智能
评估工程正成为下一轮 Agent 演进的重点
面向 RL 和在数据层(SQL 或 SPL 环境)中直接调用大模型的自动化评估实践。
1105 227
|
JavaScript
Bert-vits2-v2.2新版本本地训练推理整合包(原神八重神子英文模型miko)
近日,Bert-vits2-v2.2如约更新,该新版本v2.2主要把Emotion 模型换用CLAP多模态模型,推理支持输入text prompt提示词和audio prompt提示语音来进行引导风格化合成,让推理音色更具情感特色,并且推出了新的预处理webuI,操作上更加亲民和接地气。
Bert-vits2-v2.2新版本本地训练推理整合包(原神八重神子英文模型miko)
|
2月前
|
机器人 数据挖掘 API
一个销售数据分析机器人的诞生:看 Dify 如何在 DMS 助力下实现自动化闭环
Dify 作为一款低代码 AI 应用开发平台,凭借其直观的可视化工作流编排能力,极大降低了大模型应用的开发门槛。
440 22
一个销售数据分析机器人的诞生:看 Dify 如何在 DMS 助力下实现自动化闭环
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
Z-Image:冲击体验上限的下一代图像生成模型
通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。
2558 9