【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

简介: 【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

前言

  这段时间大模型是大家研究的重点,其中以【SegmentAnything】为首的模型让我们眼睛一亮,该模型可以对绝大多数图像能够做到较为细致的分割,其中还会返回目标框的bbox坐标。由此我们是否可以利用这一特征为自己写一脚本赋能标注工作呢?这就是本篇博客以BBOX参数为例子进行筛选为主要阐述的内容。

SAM回顾

  它能够自动识别和提取图像中的各种形状和对象,包括但不限于线条、区域、轮廓、圆形、多边形等。这项技术的核心优势在于其强大的通用性,能够适应各种不同的图像类型和场景。这很符合官方宣传SAM模型已经学会了关于物体是什么的一般性概念--这种理解使其能够对不熟悉的物体和图像进行概括,而不需要额外的训练。

image.png

  但是考虑到【SegmentAnything】中最小的vit-l模型仍然是比较大的,这对于普通选手不是怎么友好,因此我在这个项目中采用了【mobilesam】进行推理。【mobilesam】是经过一系列蒸溜得到的模型,其推理方式同【SegmentAnything】,在效率方面都得到了大大提升,精度损失的在日常的标注工作中尚可接受。

赋能工作

  为了能够将大模型的推理与标注的工作更好的融合,我们第一步需要将大模型的推理结果获取到,根据推理结果筛选出“目标框”。这里面有两个重点:

  1. 通过大模型的推理过程获取图像的输出值
  2. 能够通过鼠标交互性操作获取到需要自己的“目标框”

mobileSam推理

  在这一步中我们可以参考官网给出的推理过程,也可以参考其他各大博主发布的推理过程,这里我们定义函数加载mobile_sam模型并获取mask输出值:

ini

复制代码

from mobile_sam import SamAutomaticMaskGenerator, sam_model_registry
def load_mask():
    model_type = "vit_t"
    sam_checkpoint = "./weights/mobile_sam.pt"
    mobile_sam = sam_model_registry[model_type](checkpoint=sam_checkpoint)
    mobile_sam.to(device="cuda")
    mobile_sam.eval()
    mask_generator = SamAutomaticMaskGenerator(mobile_sam)
    return mask_generator

读取源码部分关于图像推理输入模块,可以得到输入图像的格式需要为【np.ndarray】且为RGB格式。故而后续的调用网络的推理过程中我们选择使用cv2调用网络并将BGR格式数据更改为RGB进行输入。

ini

复制代码

if __name__ == "__main__":
    mask_generator = load_mask()  # 加载网络
    src_img = cv2.imread("car.jpg")
    masks = mask_generator.generate(cv2.cvtColor(src_img, cv2.COLOR_BGR2RGB))

交互操作获取目标框

在这个里面笔者面临的最大问题为如何根据简单的交互操作实现“目标框”的获取?思考如下:

  1. 将所有的bbox全部绘制到图像中检验是否能较为合适的匹配我们需要标注的目标;
  2. 如何才能将“非目标框”剔除

  在笔者通过思考1中的输出检验得知:在大模型的推理下我们是可以获取到较为合适的bbox框,因此通过大模型推理是具有一定的可行性的。在具备了可行性了后我们接着进行下一步:分析每个bbox覆盖的范围,我们【是否可以通过两个“待检测”的目标上的点进行筛选】出大模型推理的框呢? 由于在网络的输出里面含有bbox参数以及area参数参数,那么我们可以根据包含了鼠标指针点击两个点的最小bbox,也就是包含了这两个点的最小面积的bbox。反向整理这句话:获取目标框的最小外接矩形

  需要实现上述的需求,需要对大模型的输出进行筛选,获取bbox参数以及area参数,并对area参数进行由小到大的排序并且需要将排序后的指针位置同步给bbox进行排序。

  1. 获取推理结果中的坐标框的面积集合
  2. 获取推理结果中的bbox坐标集 此时是xywh
  3. 根据面积由小到大对xywh排序

python

复制代码

def mask_infer(masks):
    area_list = [mask['area'] for mask in masks] 
    xywh_list = [masks[i]['bbox'] for i in range(len(masks))]  # 
    xywh_list = [b for _, b in sorted(zip(area_list, xywh_list))]  # 
    return xywh_list

  经过排序后我们可得到了bbox的坐标数组,在后续中我们通过鼠标点击图像中的待标注的目标点,通过点击的点进行筛查返回【第一个】bbox即可,此时我们仅计算了一次面积最小值,避免后续多个目标框多次筛选带来的复杂计算。由于在后面判断指定点是否在bbox内我们需要xyxy格式的坐标因此我们还需要xyxy_list数据:

arduino

复制代码

def build_box_tree(xyxy_list):
    box_tree = SortedDict()
    for i, box in enumerate(xyxy_list):
        box_tree[i] = box
    return box_tree
def is_point_in_box(point, box):
    xmin, ymin, xmax, ymax = box
    x, y = point
    return xmin <= x <= xmax and ymin <= y <= ymax
def is_box_containing_point(box, point):
    return is_point_in_box(point[0], box) and is_point_in_box(point[1], box)

交互性操作

在opencv中可通过cv2.setMouseCallback函数可以捕捉到鼠标指针的操作,我们可以定义如下操作:

  1. 左键单击可以获取鼠标指针所在位置的像素坐标
  2. 右键单击获取点击目标的最小外接矩形
  3. 左键双击清空点击的点以及控制台

  定义了这三大操作的含义,后续工作就是逐渐修饰完善这三大操作的细节。我们可定义最多点击两个点(两点成线),当点击第三个点的时候并不会同第二个点进行连接。需要注意的是其实最初在判断指定的两个点是否在大模型推理得到的bbox数组内时采用的为for循环判断,总感觉这种方式很Low,是否有更好的筛选及方式呢?在寻求大佬的帮助后,指出红黑树进行筛查。或许本人技术有限并没有将红黑树写的很好,只是简单的实现了下。

python

复制代码

class monitor_mouse:
    def __init__(self, img, xyxy_list=None, xyxy_tree=None):
        self.lsPointsChoose = []  # 存入选择的点
        self.tpPointsChoose = []  # 存入选择的点
        self.pointsCount = 0  # 对鼠标按下的点计数(初始化)
        self.count = 0  # 统计量:鼠标按下的点计数(初始化)
        self.pointsMax = 2  # 最多点击多少下
        self.wim_name = 'src'  # 显示图像框名称
        self.img = img  # 转录输入图像
        self.img2 = img.copy()  # 对输入图像进行copy
        self.xyxy_list = xyxy_list  # 根据面积由小到大存储坐标框xyxy格式
        self.xyxy_tree = xyxy_tree  # sam结果存储到红黑树中便于查找
    def on_mouse(self, event, x, y, flags, param):
        # -------------------------左键单击事件---------------------------------------
        if event == cv2.EVENT_LBUTTONDOWN:  # 左键点击
            if self.pointsCount == self.pointsMax:  # 设定了只允许两点成线
                self.clear_info()
            self.pointsCount += 1  # 当左键点击后,记录点击的次数
            cv2.circle(self.img2, (x, y), 2, (255, 0, 0), 2)  # 绘制了当前鼠标选取的点
            # 将选取的点保存到list列表里
            self.lsPointsChoose.append([x, y])  #
            self.tpPointsChoose.append((x, y))  # 用于画点
            # ----------------------------------------------------------------------
            # # 将鼠标选的点用直线连起来
            for i in range(len(self.tpPointsChoose) - 1):
                cv2.line(self.img2, self.tpPointsChoose[i], self.tpPointsChoose[i + 1], (0, 0, 255), 2)
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------右键单击事件-----------------------------
        if event == cv2.EVENT_RBUTTONDOWN:  # 右键点击
            self.axis_in_boxs()  # 输出单击选择的坐标集
            self.clear_info()
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------左键双击事件:清空画布及控制台-----------------------------
        if event == cv2.EVENT_LBUTTONDBLCLK:
            self.img2 = self.img.copy()
            self.clear_info()
            self.clear_win()
            cv2.imshow(self.wim_name, self.img2)
    def clear_info(self):
        self.pointsCount = 0
        self.tpPointsChoose.clear()
        self.lsPointsChoose.clear()
        self.count = 0
    def clear_win(self):
        os.system('cls')
    def axis_in_boxs(self):
        for _, box in self.xyxy_tree.items():
            if is_box_containing_point(box, self.lsPointsChoose):
                cv2.rectangle(self.img2, (box[0], box[1]), (box[2], box[3]), (0, 0, 0), 2)
                print("pt1:", (box[0], box[1]), " ", "pt2:", (box[2], box[3]))
                break

使用过程示意图

image.png

请求共同开发

  由于该项目笔者已开源在github,希望志同道合之友可以合力完善上述项目。在这里我整理了下待完善的部分:

  1. 推理模块可以加速,尽可能的降低资源的消耗;
  2. 对其已成熟的标注程序如LabelImg进行二创,将此项目融合或根据其他的标注程序进行二创,能力优秀可以独立创作
    3. 在1中的加速中可选择将网络推理结果中的xyxy_tree、xyxy_list存储为txt到本地,后期可调用txt即可(已实现)

结语

  欢迎来到我的开源项目!我非常希望能找到一些志同道合的朋友来一起完成这个项目。这个项目对我来说非常重要,我相信与有相同兴趣和热情的人合作,我们可以把这个项目做得更好。如果你对这个项目感兴趣,欢迎加入我们的开发团队,一起为这个项目做出贡献。无论你是经验丰富的开发者还是新手,只要你有热情和愿意学习,都可以成为我们团队的一部分。

  在这里衷心寻求志同道合之友,齐心协力实现上述功能点。顿首再拜,以表万分感激之情!


相关文章
|
3月前
|
消息中间件 人工智能 资源调度
云上AI推理平台全掌握 (5):大模型异步推理服务
针对大模型推理服务中“高计算量、长时延”场景下同步推理的弊端,阿里云人工智能平台 PAI 推出了一套基于独立的队列服务异步推理框架,解决了异步推理的负载均衡、实例异常时任务重分配等问题,确保请求不丢失、实例不过载。
|
3月前
|
存储 机器学习/深度学习 缓存
阿里云AirCache技术实现多模态大模型高效推理加速,入选国际顶会ICCV2025
阿里云研发的AirCache技术被计算机视觉顶会ICCV2025收录,该技术通过激活跨模态关联、优化KV缓存压缩策略,显著提升视觉语言模型(VLMs)的推理效率与存储性能。实验表明,在保留仅10%视觉缓存的情况下,模型性能下降小于1%,解码延迟最高降低66%,吞吐量提升达192%。AirCache无需修改模型结构,兼容主流VLMs,已在教育、医疗、政务等多个行业落地应用,助力多模态大模型高效赋能产业智能化升级。
282 1
|
3月前
|
人工智能 缓存 资源调度
云上AI推理平台全掌握 (4):大模型分发加速
为应对大模型服务突发流量场景,阿里云人工智能平台 PAI 推理服务 PAI-EAS 提供本地目录内存缓存(Memory Cache)的大模型分发加速功能,有效解决大量请求接入情况下的推理延迟。PAI-EAS 大模型分发加速功能,零代码即可轻松完成配置。
|
14天前
|
机器学习/深度学习 算法 数据可视化
从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南
推理型大语言模型兴起,通过先思考再作答提升性能。本文介绍GRPO等强化学习算法,详解其原理并动手用Qwen2.5-3B训练推理模型,展示训练前后效果对比,揭示思维链生成的实现路径。
135 1
从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南
|
1月前
|
机器学习/深度学习 人工智能 JSON
微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型
Microsoft Research最新推出的rStar2-Agent在AIME24数学基准测试中以80.6%的准确率超越超大规模模型DeepSeek-R1,展现“思考更聪明”而非“更长”的AI推理新方向。
108 8
微软rStar2-Agent:新的GRPO-RoC算法让14B模型在复杂推理时超越了前沿大模型
|
26天前
|
存储 缓存 负载均衡
LLM推理成本直降60%:PD分离在大模型商业化中的关键价值
在LLM推理中,Prefill(计算密集)与Decode(访存密集)阶段特性不同,分离计算可提升资源利用率。本文详解vLLM框架中的PD分离实现及局限,并分析Dynamo、Mooncake、SGLang等主流方案,探讨KV缓存、传输机制与调度策略,助力LLM推理优化。建议点赞收藏,便于后续查阅。
455 1
|
3月前
|
机器学习/深度学习 负载均衡 C++
MoR vs MoE架构对比:更少参数、更快推理的大模型新选择
本文将深入分析递归混合(MoR)与专家混合(MoE)两种架构在大语言模型中的技术特性差异,探讨各自的适用场景和实现机制,并从架构设计、参数效率、推理性能等多个维度进行全面对比。
198 0
MoR vs MoE架构对比:更少参数、更快推理的大模型新选择

热门文章

最新文章