【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

简介: 【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

前言

  这段时间大模型是大家研究的重点,其中以【SegmentAnything】为首的模型让我们眼睛一亮,该模型可以对绝大多数图像能够做到较为细致的分割,其中还会返回目标框的bbox坐标。由此我们是否可以利用这一特征为自己写一脚本赋能标注工作呢?这就是本篇博客以BBOX参数为例子进行筛选为主要阐述的内容。

SAM回顾

  它能够自动识别和提取图像中的各种形状和对象,包括但不限于线条、区域、轮廓、圆形、多边形等。这项技术的核心优势在于其强大的通用性,能够适应各种不同的图像类型和场景。这很符合官方宣传SAM模型已经学会了关于物体是什么的一般性概念--这种理解使其能够对不熟悉的物体和图像进行概括,而不需要额外的训练。

image.png

  但是考虑到【SegmentAnything】中最小的vit-l模型仍然是比较大的,这对于普通选手不是怎么友好,因此我在这个项目中采用了【mobilesam】进行推理。【mobilesam】是经过一系列蒸溜得到的模型,其推理方式同【SegmentAnything】,在效率方面都得到了大大提升,精度损失的在日常的标注工作中尚可接受。

赋能工作

  为了能够将大模型的推理与标注的工作更好的融合,我们第一步需要将大模型的推理结果获取到,根据推理结果筛选出“目标框”。这里面有两个重点:

  1. 通过大模型的推理过程获取图像的输出值
  2. 能够通过鼠标交互性操作获取到需要自己的“目标框”

mobileSam推理

  在这一步中我们可以参考官网给出的推理过程,也可以参考其他各大博主发布的推理过程,这里我们定义函数加载mobile_sam模型并获取mask输出值:

ini

复制代码

from mobile_sam import SamAutomaticMaskGenerator, sam_model_registry
def load_mask():
    model_type = "vit_t"
    sam_checkpoint = "./weights/mobile_sam.pt"
    mobile_sam = sam_model_registry[model_type](checkpoint=sam_checkpoint)
    mobile_sam.to(device="cuda")
    mobile_sam.eval()
    mask_generator = SamAutomaticMaskGenerator(mobile_sam)
    return mask_generator

读取源码部分关于图像推理输入模块,可以得到输入图像的格式需要为【np.ndarray】且为RGB格式。故而后续的调用网络的推理过程中我们选择使用cv2调用网络并将BGR格式数据更改为RGB进行输入。

ini

复制代码

if __name__ == "__main__":
    mask_generator = load_mask()  # 加载网络
    src_img = cv2.imread("car.jpg")
    masks = mask_generator.generate(cv2.cvtColor(src_img, cv2.COLOR_BGR2RGB))

交互操作获取目标框

在这个里面笔者面临的最大问题为如何根据简单的交互操作实现“目标框”的获取?思考如下:

  1. 将所有的bbox全部绘制到图像中检验是否能较为合适的匹配我们需要标注的目标;
  2. 如何才能将“非目标框”剔除

  在笔者通过思考1中的输出检验得知:在大模型的推理下我们是可以获取到较为合适的bbox框,因此通过大模型推理是具有一定的可行性的。在具备了可行性了后我们接着进行下一步:分析每个bbox覆盖的范围,我们【是否可以通过两个“待检测”的目标上的点进行筛选】出大模型推理的框呢? 由于在网络的输出里面含有bbox参数以及area参数参数,那么我们可以根据包含了鼠标指针点击两个点的最小bbox,也就是包含了这两个点的最小面积的bbox。反向整理这句话:获取目标框的最小外接矩形

  需要实现上述的需求,需要对大模型的输出进行筛选,获取bbox参数以及area参数,并对area参数进行由小到大的排序并且需要将排序后的指针位置同步给bbox进行排序。

  1. 获取推理结果中的坐标框的面积集合
  2. 获取推理结果中的bbox坐标集 此时是xywh
  3. 根据面积由小到大对xywh排序

python

复制代码

def mask_infer(masks):
    area_list = [mask['area'] for mask in masks] 
    xywh_list = [masks[i]['bbox'] for i in range(len(masks))]  # 
    xywh_list = [b for _, b in sorted(zip(area_list, xywh_list))]  # 
    return xywh_list

  经过排序后我们可得到了bbox的坐标数组,在后续中我们通过鼠标点击图像中的待标注的目标点,通过点击的点进行筛查返回【第一个】bbox即可,此时我们仅计算了一次面积最小值,避免后续多个目标框多次筛选带来的复杂计算。由于在后面判断指定点是否在bbox内我们需要xyxy格式的坐标因此我们还需要xyxy_list数据:

arduino

复制代码

def build_box_tree(xyxy_list):
    box_tree = SortedDict()
    for i, box in enumerate(xyxy_list):
        box_tree[i] = box
    return box_tree
def is_point_in_box(point, box):
    xmin, ymin, xmax, ymax = box
    x, y = point
    return xmin <= x <= xmax and ymin <= y <= ymax
def is_box_containing_point(box, point):
    return is_point_in_box(point[0], box) and is_point_in_box(point[1], box)

交互性操作

在opencv中可通过cv2.setMouseCallback函数可以捕捉到鼠标指针的操作,我们可以定义如下操作:

  1. 左键单击可以获取鼠标指针所在位置的像素坐标
  2. 右键单击获取点击目标的最小外接矩形
  3. 左键双击清空点击的点以及控制台

  定义了这三大操作的含义,后续工作就是逐渐修饰完善这三大操作的细节。我们可定义最多点击两个点(两点成线),当点击第三个点的时候并不会同第二个点进行连接。需要注意的是其实最初在判断指定的两个点是否在大模型推理得到的bbox数组内时采用的为for循环判断,总感觉这种方式很Low,是否有更好的筛选及方式呢?在寻求大佬的帮助后,指出红黑树进行筛查。或许本人技术有限并没有将红黑树写的很好,只是简单的实现了下。

python

复制代码

class monitor_mouse:
    def __init__(self, img, xyxy_list=None, xyxy_tree=None):
        self.lsPointsChoose = []  # 存入选择的点
        self.tpPointsChoose = []  # 存入选择的点
        self.pointsCount = 0  # 对鼠标按下的点计数(初始化)
        self.count = 0  # 统计量:鼠标按下的点计数(初始化)
        self.pointsMax = 2  # 最多点击多少下
        self.wim_name = 'src'  # 显示图像框名称
        self.img = img  # 转录输入图像
        self.img2 = img.copy()  # 对输入图像进行copy
        self.xyxy_list = xyxy_list  # 根据面积由小到大存储坐标框xyxy格式
        self.xyxy_tree = xyxy_tree  # sam结果存储到红黑树中便于查找
    def on_mouse(self, event, x, y, flags, param):
        # -------------------------左键单击事件---------------------------------------
        if event == cv2.EVENT_LBUTTONDOWN:  # 左键点击
            if self.pointsCount == self.pointsMax:  # 设定了只允许两点成线
                self.clear_info()
            self.pointsCount += 1  # 当左键点击后,记录点击的次数
            cv2.circle(self.img2, (x, y), 2, (255, 0, 0), 2)  # 绘制了当前鼠标选取的点
            # 将选取的点保存到list列表里
            self.lsPointsChoose.append([x, y])  #
            self.tpPointsChoose.append((x, y))  # 用于画点
            # ----------------------------------------------------------------------
            # # 将鼠标选的点用直线连起来
            for i in range(len(self.tpPointsChoose) - 1):
                cv2.line(self.img2, self.tpPointsChoose[i], self.tpPointsChoose[i + 1], (0, 0, 255), 2)
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------右键单击事件-----------------------------
        if event == cv2.EVENT_RBUTTONDOWN:  # 右键点击
            self.axis_in_boxs()  # 输出单击选择的坐标集
            self.clear_info()
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------左键双击事件:清空画布及控制台-----------------------------
        if event == cv2.EVENT_LBUTTONDBLCLK:
            self.img2 = self.img.copy()
            self.clear_info()
            self.clear_win()
            cv2.imshow(self.wim_name, self.img2)
    def clear_info(self):
        self.pointsCount = 0
        self.tpPointsChoose.clear()
        self.lsPointsChoose.clear()
        self.count = 0
    def clear_win(self):
        os.system('cls')
    def axis_in_boxs(self):
        for _, box in self.xyxy_tree.items():
            if is_box_containing_point(box, self.lsPointsChoose):
                cv2.rectangle(self.img2, (box[0], box[1]), (box[2], box[3]), (0, 0, 0), 2)
                print("pt1:", (box[0], box[1]), " ", "pt2:", (box[2], box[3]))
                break

使用过程示意图

image.png

请求共同开发

  由于该项目笔者已开源在github,希望志同道合之友可以合力完善上述项目。在这里我整理了下待完善的部分:

  1. 推理模块可以加速,尽可能的降低资源的消耗;
  2. 对其已成熟的标注程序如LabelImg进行二创,将此项目融合或根据其他的标注程序进行二创,能力优秀可以独立创作
    3. 在1中的加速中可选择将网络推理结果中的xyxy_tree、xyxy_list存储为txt到本地,后期可调用txt即可(已实现)

结语

  欢迎来到我的开源项目!我非常希望能找到一些志同道合的朋友来一起完成这个项目。这个项目对我来说非常重要,我相信与有相同兴趣和热情的人合作,我们可以把这个项目做得更好。如果你对这个项目感兴趣,欢迎加入我们的开发团队,一起为这个项目做出贡献。无论你是经验丰富的开发者还是新手,只要你有热情和愿意学习,都可以成为我们团队的一部分。

  在这里衷心寻求志同道合之友,齐心协力实现上述功能点。顿首再拜,以表万分感激之情!


目录
打赏
0
1
1
0
181
分享
相关文章
|
2月前
|
RAG没有银弹!四级难度,最新综述覆盖数据集、解决方案,教你LLM+外部数据的正确使用姿势
在人工智能领域,大型语言模型(LLM)结合外部数据展现出强大能力,尤其检索增强生成(RAG)和微调技术备受关注。然而,不同专业领域的有效部署仍面临挑战,如准确检索数据、理解用户意图等。综述文章《Retrieval Augmented Generation (RAG) and Beyond》提出RAG任务分类方法,将用户查询分为四个级别,并探讨了外部数据集成的三种形式:上下文、小型模型和微调。文章提供了宝贵见解和实用指导,帮助更好地利用LLM潜力解决实际问题。论文链接:https://arxiv.org/abs/2409.14924
98 6
阿里云多模态数据信息提取解决方案深度评测与优化建议
本文基于多模态数据信息提取方案的部署体验,深入剖析其在操作界面、部署文档、函数模板、官方示例及实用性与移植性等方面的表现,并提出针对性改进建议。优化建议涵盖模型性能对比、实时校验、故障排查手册、代码注释扩充、行业专属示例集等,旨在提升方案的易用性、功能性和通用性,助力企业在复杂数据处理中高效挖掘价值信息,推动数字化转型。
102 9
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
SNOOPI是一个创新的AI文本到图像生成框架,通过增强单步扩散模型的指导,显著提升模型性能和控制力。该框架包括PG-SB和NASA两种技术,分别用于增强训练稳定性和整合负面提示。SNOOPI在多个评估指标上超越基线模型,尤其在HPSv2得分达到31.08,成为单步扩散模型的新标杆。
97 10
SNOOPI:创新 AI 文本到图像生成框架,提升单步扩散模型的效率和性能
扩散引导语言建模(DGLM):一种可控且高效的AI对齐方法
DGLM(Diffusion Guided Language Modeling)是一种新型框架,结合了自回归模型的流畅性和扩散模型的灵活性,解决了现有引导生成方法的局限性。DGLM通过扩散网络生成语义提案,并使用轻量级提示生成器将嵌入转化为软提示,引导自回归解码器生成文本。该方法无需微调模型权重,易于控制新属性,并在多个基准数据集上表现出色。实验结果显示,DGLM在毒性缓解、情感控制和组合控制等方面优于现有方法,为可控文本生成提供了新的方向。
107 10
扩散引导语言建模(DGLM):一种可控且高效的AI对齐方法
多模态模型评测框架lmms-eval发布!全面覆盖,低成本,零污染
【9月更文挑战第15天】LMMS-EVAL 是一项由多家研究机构联合开发的多模态模型评测框架,旨在为大型多模态模型提供全面、低成本且零污染的评测基准。该框架包含超过50个任务和10多个模型,覆盖图像分类、目标检测、语音识别等多个领域,使研究人员能够在有限资源下轻松评估和比较模型性能。通过利用实时更新的数据源,LMMS-EVAL 还确保了模型在真实世界中的泛化能力。论文地址: https://arxiv.org/abs/2407.12772
140 5
|
8月前
评估数据集CGoDial问题之多模态对话为什么重要
评估数据集CGoDial问题之多模态对话为什么重要
评估数据集CGoDial问题之TKK框架提升模型泛化能力的问题如何解决
评估数据集CGoDial问题之TKK框架提升模型泛化能力的问题如何解决
让大模型不再巨无霸,这是一份最新的大模型参数高效微调综述
【5月更文挑战第12天】最新综述探讨了大模型参数高效微调,旨在减少计算成本、增强泛化能力和灵活性。方法包括Additive、Selective、Reparameterized和Hybrid PEFT,已应用于NLP、CV和多模态学习。尽管取得进展,仍需解决泛化、效率和可解释性问题。未来研究将关注多任务学习、强化学习和神经架构搜索。论文链接:https://arxiv.org/pdf/2403.14608.pdf
464 2
Contextual发布生成式表征指导调整模型
【2月更文挑战第17天】Contextual发布生成式表征指导调整模型
164 1
Contextual发布生成式表征指导调整模型
大模型开发:描述模型可解释性的重要性以及如何实现它。
模型可解释性在AI和机器学习中至关重要,尤其在金融风控等领域,它关乎信任、公平性和法规合规。通过建立信任、发现偏见、排查错误和满足法规要求,可解释性促进了模型的改进和社会接受度。研究者采用简单模型、局部和全局解释方法、模型可视化及原型/反例等策略提升模型透明度。这是一项结合算法、专业知识和伦理的跨学科挑战。
504 1
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等