【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

简介: 【mobileSam】使用大模型推理赋能标注工作,让标注工作不再困难

前言

  这段时间大模型是大家研究的重点,其中以【SegmentAnything】为首的模型让我们眼睛一亮,该模型可以对绝大多数图像能够做到较为细致的分割,其中还会返回目标框的bbox坐标。由此我们是否可以利用这一特征为自己写一脚本赋能标注工作呢?这就是本篇博客以BBOX参数为例子进行筛选为主要阐述的内容。

SAM回顾

  它能够自动识别和提取图像中的各种形状和对象,包括但不限于线条、区域、轮廓、圆形、多边形等。这项技术的核心优势在于其强大的通用性,能够适应各种不同的图像类型和场景。这很符合官方宣传SAM模型已经学会了关于物体是什么的一般性概念--这种理解使其能够对不熟悉的物体和图像进行概括,而不需要额外的训练。

image.png

  但是考虑到【SegmentAnything】中最小的vit-l模型仍然是比较大的,这对于普通选手不是怎么友好,因此我在这个项目中采用了【mobilesam】进行推理。【mobilesam】是经过一系列蒸溜得到的模型,其推理方式同【SegmentAnything】,在效率方面都得到了大大提升,精度损失的在日常的标注工作中尚可接受。

赋能工作

  为了能够将大模型的推理与标注的工作更好的融合,我们第一步需要将大模型的推理结果获取到,根据推理结果筛选出“目标框”。这里面有两个重点:

  1. 通过大模型的推理过程获取图像的输出值
  2. 能够通过鼠标交互性操作获取到需要自己的“目标框”

mobileSam推理

  在这一步中我们可以参考官网给出的推理过程,也可以参考其他各大博主发布的推理过程,这里我们定义函数加载mobile_sam模型并获取mask输出值:

ini

复制代码

from mobile_sam import SamAutomaticMaskGenerator, sam_model_registry
def load_mask():
    model_type = "vit_t"
    sam_checkpoint = "./weights/mobile_sam.pt"
    mobile_sam = sam_model_registry[model_type](checkpoint=sam_checkpoint)
    mobile_sam.to(device="cuda")
    mobile_sam.eval()
    mask_generator = SamAutomaticMaskGenerator(mobile_sam)
    return mask_generator

读取源码部分关于图像推理输入模块,可以得到输入图像的格式需要为【np.ndarray】且为RGB格式。故而后续的调用网络的推理过程中我们选择使用cv2调用网络并将BGR格式数据更改为RGB进行输入。

ini

复制代码

if __name__ == "__main__":
    mask_generator = load_mask()  # 加载网络
    src_img = cv2.imread("car.jpg")
    masks = mask_generator.generate(cv2.cvtColor(src_img, cv2.COLOR_BGR2RGB))

交互操作获取目标框

在这个里面笔者面临的最大问题为如何根据简单的交互操作实现“目标框”的获取?思考如下:

  1. 将所有的bbox全部绘制到图像中检验是否能较为合适的匹配我们需要标注的目标;
  2. 如何才能将“非目标框”剔除

  在笔者通过思考1中的输出检验得知:在大模型的推理下我们是可以获取到较为合适的bbox框,因此通过大模型推理是具有一定的可行性的。在具备了可行性了后我们接着进行下一步:分析每个bbox覆盖的范围,我们【是否可以通过两个“待检测”的目标上的点进行筛选】出大模型推理的框呢? 由于在网络的输出里面含有bbox参数以及area参数参数,那么我们可以根据包含了鼠标指针点击两个点的最小bbox,也就是包含了这两个点的最小面积的bbox。反向整理这句话:获取目标框的最小外接矩形

  需要实现上述的需求,需要对大模型的输出进行筛选,获取bbox参数以及area参数,并对area参数进行由小到大的排序并且需要将排序后的指针位置同步给bbox进行排序。

  1. 获取推理结果中的坐标框的面积集合
  2. 获取推理结果中的bbox坐标集 此时是xywh
  3. 根据面积由小到大对xywh排序

python

复制代码

def mask_infer(masks):
    area_list = [mask['area'] for mask in masks] 
    xywh_list = [masks[i]['bbox'] for i in range(len(masks))]  # 
    xywh_list = [b for _, b in sorted(zip(area_list, xywh_list))]  # 
    return xywh_list

  经过排序后我们可得到了bbox的坐标数组,在后续中我们通过鼠标点击图像中的待标注的目标点,通过点击的点进行筛查返回【第一个】bbox即可,此时我们仅计算了一次面积最小值,避免后续多个目标框多次筛选带来的复杂计算。由于在后面判断指定点是否在bbox内我们需要xyxy格式的坐标因此我们还需要xyxy_list数据:

arduino

复制代码

def build_box_tree(xyxy_list):
    box_tree = SortedDict()
    for i, box in enumerate(xyxy_list):
        box_tree[i] = box
    return box_tree
def is_point_in_box(point, box):
    xmin, ymin, xmax, ymax = box
    x, y = point
    return xmin <= x <= xmax and ymin <= y <= ymax
def is_box_containing_point(box, point):
    return is_point_in_box(point[0], box) and is_point_in_box(point[1], box)

交互性操作

在opencv中可通过cv2.setMouseCallback函数可以捕捉到鼠标指针的操作,我们可以定义如下操作:

  1. 左键单击可以获取鼠标指针所在位置的像素坐标
  2. 右键单击获取点击目标的最小外接矩形
  3. 左键双击清空点击的点以及控制台

  定义了这三大操作的含义,后续工作就是逐渐修饰完善这三大操作的细节。我们可定义最多点击两个点(两点成线),当点击第三个点的时候并不会同第二个点进行连接。需要注意的是其实最初在判断指定的两个点是否在大模型推理得到的bbox数组内时采用的为for循环判断,总感觉这种方式很Low,是否有更好的筛选及方式呢?在寻求大佬的帮助后,指出红黑树进行筛查。或许本人技术有限并没有将红黑树写的很好,只是简单的实现了下。

python

复制代码

class monitor_mouse:
    def __init__(self, img, xyxy_list=None, xyxy_tree=None):
        self.lsPointsChoose = []  # 存入选择的点
        self.tpPointsChoose = []  # 存入选择的点
        self.pointsCount = 0  # 对鼠标按下的点计数(初始化)
        self.count = 0  # 统计量:鼠标按下的点计数(初始化)
        self.pointsMax = 2  # 最多点击多少下
        self.wim_name = 'src'  # 显示图像框名称
        self.img = img  # 转录输入图像
        self.img2 = img.copy()  # 对输入图像进行copy
        self.xyxy_list = xyxy_list  # 根据面积由小到大存储坐标框xyxy格式
        self.xyxy_tree = xyxy_tree  # sam结果存储到红黑树中便于查找
    def on_mouse(self, event, x, y, flags, param):
        # -------------------------左键单击事件---------------------------------------
        if event == cv2.EVENT_LBUTTONDOWN:  # 左键点击
            if self.pointsCount == self.pointsMax:  # 设定了只允许两点成线
                self.clear_info()
            self.pointsCount += 1  # 当左键点击后,记录点击的次数
            cv2.circle(self.img2, (x, y), 2, (255, 0, 0), 2)  # 绘制了当前鼠标选取的点
            # 将选取的点保存到list列表里
            self.lsPointsChoose.append([x, y])  #
            self.tpPointsChoose.append((x, y))  # 用于画点
            # ----------------------------------------------------------------------
            # # 将鼠标选的点用直线连起来
            for i in range(len(self.tpPointsChoose) - 1):
                cv2.line(self.img2, self.tpPointsChoose[i], self.tpPointsChoose[i + 1], (0, 0, 255), 2)
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------右键单击事件-----------------------------
        if event == cv2.EVENT_RBUTTONDOWN:  # 右键点击
            self.axis_in_boxs()  # 输出单击选择的坐标集
            self.clear_info()
            cv2.imshow(self.wim_name, self.img2)
        # -------------------------左键双击事件:清空画布及控制台-----------------------------
        if event == cv2.EVENT_LBUTTONDBLCLK:
            self.img2 = self.img.copy()
            self.clear_info()
            self.clear_win()
            cv2.imshow(self.wim_name, self.img2)
    def clear_info(self):
        self.pointsCount = 0
        self.tpPointsChoose.clear()
        self.lsPointsChoose.clear()
        self.count = 0
    def clear_win(self):
        os.system('cls')
    def axis_in_boxs(self):
        for _, box in self.xyxy_tree.items():
            if is_box_containing_point(box, self.lsPointsChoose):
                cv2.rectangle(self.img2, (box[0], box[1]), (box[2], box[3]), (0, 0, 0), 2)
                print("pt1:", (box[0], box[1]), " ", "pt2:", (box[2], box[3]))
                break

使用过程示意图

image.png

请求共同开发

  由于该项目笔者已开源在github,希望志同道合之友可以合力完善上述项目。在这里我整理了下待完善的部分:

  1. 推理模块可以加速,尽可能的降低资源的消耗;
  2. 对其已成熟的标注程序如LabelImg进行二创,将此项目融合或根据其他的标注程序进行二创,能力优秀可以独立创作
    3. 在1中的加速中可选择将网络推理结果中的xyxy_tree、xyxy_list存储为txt到本地,后期可调用txt即可(已实现)

结语

  欢迎来到我的开源项目!我非常希望能找到一些志同道合的朋友来一起完成这个项目。这个项目对我来说非常重要,我相信与有相同兴趣和热情的人合作,我们可以把这个项目做得更好。如果你对这个项目感兴趣,欢迎加入我们的开发团队,一起为这个项目做出贡献。无论你是经验丰富的开发者还是新手,只要你有热情和愿意学习,都可以成为我们团队的一部分。

  在这里衷心寻求志同道合之友,齐心协力实现上述功能点。顿首再拜,以表万分感激之情!


相关文章
|
1月前
|
机器学习/深度学习 编解码 人工智能
什么样才算好图——从生图模型质量度量方法看模型能力的发展(下)
什么样才算好图——从生图模型质量度量方法看模型能力的发展(下)
23 1
|
1月前
|
机器学习/深度学习 数据采集 计算机视觉
什么样才算好图——从生图模型质量度量方法看模型能力的发展(上)
什么样才算好图——从生图模型质量度量方法看模型能力的发展
41 1
|
2月前
大模型开发:描述一个你遇到过的具有挑战性的数据集问题以及你是如何解决它的。
在大模型开发中,面对不平衡数据集(某些类别样本远超其他类别)的问题,可能导致模型偏向多数类。在二分类问题中,正样本远少于负样本,影响模型学习和性能。为解决此问题,采用了数据重采样(过采样、欠采样)、SMOTE技术合成新样本、使用加权交叉熵损失函数、集成学习(Bagging、Boosting)以及模型调整(复杂度控制、早停法、正则化)。这些策略有效提升了模型性能,尤其是对少数类的预测,强调了针对数据集问题灵活运用多种方法的重要性。
9 0
|
6月前
|
机器学习/深度学习 人工智能 数据可视化
【网安AIGC专题10.19】论文4:大模型(CODEX 、CodeGen 、INCODER )+自动生成代码评估:改进自动化测试方法、创建测试输入生成器、探索新的评估数据集扩充方法
【网安AIGC专题10.19】论文4:大模型(CODEX 、CodeGen 、INCODER )+自动生成代码评估:改进自动化测试方法、创建测试输入生成器、探索新的评估数据集扩充方法
303 1
|
2月前
|
机器学习/深度学习 人工智能 缓存
Contextual发布生成式表征指导调整模型
【2月更文挑战第17天】Contextual发布生成式表征指导调整模型
23 1
Contextual发布生成式表征指导调整模型
|
4月前
|
人工智能 自然语言处理 前端开发
前端训练不规范导致AIGC模型“上梁不正”
【1月更文挑战第23天】前端训练不规范导致AIGC模型“上梁不正”
41 1
前端训练不规范导致AIGC模型“上梁不正”
|
4月前
|
人工智能
全方位解析PAI:数据准备、模型开发、模型训练一网打尽
全方位解析PAI:数据准备、模型开发、模型训练一网打尽 随着人工智能技术的飞速发展,越来越多的企业开始关注并投入到AI的研发中。然而,AI的研发并非易事,从数据准备、模型开发、模型训练到模型服务,每一个环节都需要专业的工具和平台来支持。阿里云的PAI(Powered by AI)正是一个涵盖了数据准备、模型开发、模型训练、模型服务全流程的AI工作平台。本文将为您详细介绍PAI的各个子产品的产品线上规格及使用指引。
54 2
|
5月前
|
自然语言处理 安全 算法
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
80 0
23REPEAT方法:软工顶会ICSE ‘23 大模型在代码智能领域持续学习 代表性样本重放(选择信息丰富且多样化的示例) + 基于可塑权重巩固EWC的自适应参数正则化 【网安AIGC专题11.22】
|
5月前
|
机器学习/深度学习 数据采集 自然语言处理
【机器学习】采集数据、特征工程、建立模型、应用四个阶段的详解(图文解释 超详细)
【机器学习】采集数据、特征工程、建立模型、应用四个阶段的详解(图文解释 超详细)
224 0
|
6月前
|
机器学习/深度学习 自然语言处理 算法
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
【网安AIGC专题10.25】论文7:Chatgpt/CodeX引入会话式 APR 范例+利用验证反馈+LLM 长期上下文窗口:更智能的反馈机制、更有效的信息合并策略、更复杂的模型结构、鼓励生成多样性
80 0