实战|基于YOLOv10与MobileSAM实现目标检测与分割【附完整源码】

简介: 实战|基于YOLOv10与MobileSAM实现目标检测与分割【附完整源码】


实现效果

原始图片

使用YOLOv10检测与MobileSAM分割后的结果如下:

引言

本文基于前沿的YOLOv10目标检测模型与轻量化分割一切的MobileSAM模型实现物体的目标检测与分割效果。本文给出了完整的实现步骤与代码详解,供小伙伴们学习。**所有相关文件、模型及相关资料均已打包,文末可免费获取。**有任何问题的话,欢迎在评论区留言讨论。

实现步骤

首先我们需要下载YOLOv10源码与MobileSAM源码并解压,地址如下:

https://github.com/ChaoningZhang/MobileSAM

https://github.com/THU-MIG/yolov10

环境配置

我们进入到yolov10源码的项目目录,然后使用conda进行项目虚拟环境配置:

conda create -n yolov10 python=3.9
conda activate yolov10
pip install -r requirements.txt
pip install -e .

YOLOv10进行目标检测

这里我们直接使用官方提供的yolov10n.pt进行检测,并获取检测框的位置信息,用于后续MobileSAM进行分割,代码如下:

# 读取图像
image = cv2.imread('test1.jpg')
# 加载YOLOv10模型
model = YOLOv10("yolov10_main/yolov10n.pt")
results = model.predict(image)
# 绘制检测结果
results[0].show()
# 获取结果
res = results[0]
# 获取检测框位置信息
box_locations = res.boxes.xyxy.cpu().numpy().astype(int)
print(box_locations)

检测结果如下所示:

MobilseSAM进行分割

我们将上述检测框信息作为提示信息,传入MobileSAM对目标进行分割,具体代码如下:

加载MobileSAM模型:

from mobile_encoder.setup_mobile_sam import setup_model
from segment_anything import SamPredictor
# 加载分割模型
checkpoint = torch.load('MobileSAM-master/weights/mobile_sam.pt',map_location=torch.device('cpu'))
mobile_sam = setup_model()
mobile_sam.load_state_dict(checkpoint,strict=True)
device = "cpu"
mobile_sam.to(device=device)
mobile_sam.eval()
predictor = SamPredictor(mobile_sam)
predictor.set_image(image)

使用模型对目标进行分割:

# 矩形框提示
for box in box_locations:
    input_box = np.array([box[0], box[1], box[2], box[3]])
    masks, _, _ = predictor.predict(
        point_coords=None,
        point_labels=None,
        box=input_box[None, :],
        multimask_output=False,
    )
    # masks为布尔值
    # 显示mask
    image = add_mask(image, masks[0])
    # 显示检测框
    image = show_box(image, box)
cv2.imshow("res", image)
cv2.imwrite("res.jpg", image)
cv2.waitKey(0)

显示结果如下:

可以看到,MobileSAM可以很好的对YOLOv10检测后的结果进行分割。MobileSAM同样可以与其他目标检测模型以这种方式进行结合使用,达到分割目标的效果。

好了,这篇文章就介绍到这里,感谢点赞关注,更多精彩内容持续更新中~

相关文章
|
1月前
|
编解码 缓存 计算机视觉
改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)-1
改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)-1
173 0
|
1月前
|
算法 PyTorch 计算机视觉
改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)-2
改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)-2
136 1
改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)-2
|
8天前
|
存储 API 计算机视觉
实战|YOLOv10 自定义目标检测
实战|YOLOv10 自定义目标检测
33 1
|
14天前
|
机器学习/深度学习 存储 数据挖掘
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测
基于YOLOv8深度学习的生活垃圾分类目标检测系统【python源码+Pyqt5界面+数据集+训练代码】目标检测
|
1月前
|
机器学习/深度学习 监控 算法
YOLO及其原理介绍
YOLO及其原理介绍
|
7月前
|
编解码 自然语言处理 并行计算
【经典论文解读】YOLACT 实例分割(YOLOv5、YOLOv8实例分割的基础)
 YOLACT是经典的单阶段、实时、实例分割方法,在YOLOv5和YOLOv8中的实例分割,也是基于 YOLACT实现的,有必要理解一下它的模型结构和设计思路。
808 0
|
10月前
|
机器学习/深度学习 人工智能 计算机视觉
【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
2015 0
【YOLOv8-seg】实战一:手把手教你使用YOLOv8实现实例分割
|
11月前
|
编解码 固态存储 数据挖掘
YOLO V2原理总结
在YOLO V1的基础上对YOLO V2原理进行总结
154 0
|
11月前
|
机器学习/深度学习 PyTorch 语音技术
使用PyTorch构建卷积神经网络(CNN)源码(详细步骤讲解+注释版) 01 手写数字识别
在使用PyTorch构建GAN生成对抗网络一文中,我们使用GAN构建了一个可以生成人脸图像的模型。但尽管是较为简单的模型,仍占用了1G左右的GPU内存,因此需要探索更加节约资源的方式。
|
机器学习/深度学习 算法 计算机视觉
YOLO V1原理详解
YOLO V1原理详解
11117 0