5行代码,快速实现图像分割,代码逐行详解,手把手教你处理图像 | 开源

本文涉及的产品
视觉智能开放平台,分割抠图1万点
视觉智能开放平台,图像资源包5000点
视觉智能开放平台,视频资源包5000点
简介: 云栖号资讯:【点击查看更多行业资讯】在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来! 图像分割,作为计算机视觉的基础,是图像理解的重要组成部分,也是图像处理的难点之一。 那么,如何优雅且体面的图像分割? 5行代码、分分钟实现的库——PixelLib,了解一下。

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!


图像分割,作为计算机视觉的基础,是图像理解的重要组成部分,也是图像处理的难点之一。

那么,如何优雅且体面的图像分割?

5行代码、分分钟实现的库——PixelLib,了解一下。

1

当然,如此好用的项目,开源是必须的。

为什么要用到图像分割?

虽然计算机视觉研究工作者,会经常接触图像分割的问题,但是我们还是需要对其做下“赘述”(方便初学者)。

我们都知道每个图像都是有一组像素值组成。简单来说,图像分割就是在像素级上,对图像进行分类的任务。

图像分割中使用的一些“独门秘技”,使它可以处理一些关键的计算机视觉任务。主要分为2类:

  • 语义分割:就是把图像中每个像素赋予一个类别标签,用不同的颜色来表示。
  • 实例分割:它不需要对每个像素进行标记,它只需要找到感兴趣物体的边缘轮廓就行。

它的身影也经常会出现在比较重要的场景中:

  • 无人驾驶汽车视觉系统,可以有效的理解道路场景。
  • 医疗图像分割,可以帮助医生进行诊断测试。
  • 卫星图像分析,等等。

所以,图像分割技术的应用还是非常重要的。

接下来,我们就直奔主题,开始了解一下PixelLib,这个神奇又好用的库。

快速安装PixelLib

PixelLib这个库可以非常简单的实现图像分割——5行代码就可以实现语义分割和实例分割。

老规矩,先介绍一下安装环境。

安装最新版本的TensorFlow、Pillow、OpenCV-Python、scikit-image和PixelLib:

2

PixelLib实现语义分割

PixelLib在执行语义分割任务时,采用的是Deeplabv3+框架,以及在pascalvoc上预训练的Xception模型。

用在pascalvoc上预训练的Xception模型执行语义分割:

import pixellib
from pixellib.semantic import semantic_segmentation
segment_image = semantic_segmentation()
segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)
segment_image.segmentAsPascalvoc(“path_to_image”, output_image_name = “path_to_output_image”)

让我们看一下每行代码:

3

用于执行语义分割的类,是从pixellib导入的,创建了一个类的实例。

4

调用函数来加载在pascal voc上训练的xception模型(xception模型可以从文末传送门链接处下载)。

segment_image.segmentAsPascalvoc(“path_to_image”, output_image_name = “path_to_output_image”)

这是对图像进行分割的代码行,这个函数包含了两个参数:

  • path_to_image:图像被分割的路径。
  • path_to_output_image:保存输出图像的路径,图像将被保存在你当前的工作目录中。

接下来,上图,实战!

图像文件命名为:sample1.jpg,如下图所示。

5

执行代码如下:

import pixellib
from pixellib.semantic import semantic_segmentation
segment_image = semantic_segmentation()
segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)
segment_image.segmentAsPascalvoc(“sample1.jpg”, output_image_name = “image_new.jpg”)

6

可以看到,在执行代码后,保存的图像中,所有对象都被分割了。

也可以对代码稍作修改,获取一张带有目标对象分段重叠(segmentation overlay)的图像。

segment_image.segmentAsPascalvoc(“sample1.jpg”, output_image_name = “image_new.jpg”, overlay = True)

添加了一个额外的参数,并设置为True,就生成了带有分段叠加的图像。

7

可以通过修改下面的代码,来检查执行分割所需的推理时间。

8

输出如下:

9

可以看到,在图像上执行语义分割,只用了8.19秒。

这个xception模型是用pascalvoc数据集训练的,有20个常用对象类别。

对象及其相应的color map如下所示:

10

PixelLib实现实例分割

虽然语义分割的结果看起来还不错,但在图像分割的某些特定任务上,可能就不太理想。

在语义分割中,相同类别的对象被赋予相同的colormap,因此语义分割可能无法提供特别充分的图像信息。

于是,便诞生了实例分割——同一类别的对象被赋予不同的colormap。

PixelLib在执行实例分割时,基于的框架是Mask RCNN,代码如下:

import pixellib
from pixellib.instance import instance_segmentation
segment_image = instance_segmentation()
segment_image.load_model(“mask_rcnn_coco.h5”)
segment_image.segmentImage(“path_to_image”, output_image_name = “output_image_path”)

同样,我们先来拆解一下每行代码。

import pixellib
from pixellib.instance import instance_segmentation
segment_image = instance_segmentation()

导入了用于执行实例分割的类,创建了该类的一个实例。

segment_image.load_model(“mask_rcnn_coco.h5”) 

这是加载 Mask RCNN 模型来执行实例分割的代码(Mask RCNN模型可以从文末传送门链接处下载)。

segment_image.segmentImage(“path_to_image”, output_image_name = “output_image_path”)

这是对图像进行实例分割的代码,它需要两个参数:

  • path_to_image:模型所要预测图像的路径。
  • output_image_name:保存分割结果的路径,将被保存在当前的工作目录中。

上图,实战第二弹!

图像文件命名为:sample2.jpg,如下图所示。

11

执行代码如下:

12

13

上图便是保存到目录的图片,现在可以看到语义分割和实例分割之间的明显区别——在实例分割中,同一类别的所有对象,都被赋予了不同的colormap。

若是想用边界框(bounding box)来实现分割,可以对代码稍作修改:

segment_image.segmentImage(“sample2.jpg”, output_image_name = “image_new.jpg”, show_bboxes = True) 

这样,就可以得到一个包含分割蒙版和边界框的保存图像。

14

同样的,也可以通过代码查询实例分割的推理时间:

15

输出结果如下:

16

可以看到,在图像上执行实例分割,需要12.55秒的时间。

最后,奉上项目、模型下载地址,快去试试吧~

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/live

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-05-21
本文作者:金磊
本文来自:“量子位公众号”,了解相关信息可以关注“公众号QbitAI”

相关文章
|
9月前
|
编译器 C++
C++语言预处理器学习应用案例
【4月更文挑战第8天】C++预处理器包括条件编译、宏定义和文件包含等功能。例如,条件编译用于根据平台选择不同代码实现,宏定义可简化常量和变量名,文件包含则用于整合多个源文件。示例中展示了如何使用`#ifdef`等指令进行条件编译,当`DEBUG`宏定义时,`PRINT_LOG`会打印调试信息,否则不执行。
65 1
|
9月前
|
机器学习/深度学习 数据采集 算法
【Python机器学习】过拟合及其抑制方法讲解及实战(图文解释 附源码)
【Python机器学习】过拟合及其抑制方法讲解及实战(图文解释 附源码)
157 0
【Python机器学习】过拟合及其抑制方法讲解及实战(图文解释 附源码)
|
9月前
|
机器学习/深度学习 并行计算 算法
Transformer 一起动手编码学原理
学习Transformer,快来跟着作者动手写一个。
94368 9
|
9月前
|
机器学习/深度学习 存储 算法
【轻量化:实操】动手实现神经网络中的裁枝操作(附演示代码&yolo系列)
【轻量化:实操】动手实现神经网络中的裁枝操作(附演示代码&yolo系列)
212 1
|
9月前
|
机器学习/深度学习 vr&ar 算法框架/工具
表情识别(从原理到代码安装)
表情识别(从原理到代码安装)
|
9月前
|
数据安全/隐私保护 计算机视觉 Python
OpenCV中图像的位运算讲解与实战演示(附Python源码 图文解释)
OpenCV中图像的位运算讲解与实战演示(附Python源码 图文解释)
261 0
|
9月前
|
机器学习/深度学习 并行计算 算法
OpenCV简介、导入及图像处理基础方法讲解(图文解释 附源码)
OpenCV简介、导入及图像处理基础方法讲解(图文解释 附源码)
191 0
|
机器学习/深度学习 TensorFlow 算法框架/工具
计算机视觉实战(十七)OpenCV的DNN模型 (附完整代码)
计算机视觉实战(十七)OpenCV的DNN模型 (附完整代码)
320 0
|
计算机视觉
【计算机视觉】DINOv2的四种模型代码示范,以 28 * 28 的图像示例(含源代码)
DINOv2利用最大模型ViT-g的知识蒸馏,而不是从头开始训练,从而提高了性能。这个过程包括将知识从更大、更复杂的模型(教师)转移到更小的模型(学生)。学生模型被训练来模仿教师的输出,从而继承其优越的能力。这个过程提高了小型模型的性能,使它们更有效率。
|
机器学习/深度学习 PyTorch 算法框架/工具
使用PyTorch构建GAN生成对抗网络源码(详细步骤讲解+注释版)01 手写字体识别
生成对抗网络(GAN)是一种用于生成新的照片,文本或音频的模型。它由两部分组成:生成器和判别器。生成器的作用是生成新的样本,而判别器的作用是识别这些样本是真实的还是假的。两个模型相互博弈,通过不断调整自己的参数来提高自己的能力。生成器希望判别器错误地认为其生成的样本是真实的,而判别器希望能正确地识别生成器生成的样本是假的。最终,生成器会学到如何生成逼真的样本,而判别器会学到如何区分真假样本。

热门文章

最新文章