图像目标分割_1 概述

简介: 图像分割的目的:简化或改变图像的表示形式,使得图像更容易理解和分析。图像分割通常用于定位图像中的物体和边界(线,曲线等)。更精确的,图像分割是对图像中的每个像素加标签的一个过程,这一过程使得具有相同标签的像素具有某种共同视觉特性。

815902569f6a467a99304f9ac1482386.png


6.1.1 什么是目标分割


  • 定义:在计算机视觉领域,图像分割(Object Segmentation)指的是将数字图像细分为多个图像子区域(像素的集合)的过程。


图像分割的目的:简化或改变图像的表示形式,使得图像更容易理解和分析。图像分割通常用于定位图像中的物体和边界(线,曲线等)。更精确的,图像分割是对图像中的每个像素加标签的一个过程,这一过程使得具有相同标签的像素具有某种共同视觉特性。


图像分割的结果:图像上子区域的集合,或是从图像中提取的轮廓线的集合(例如边缘检测)。一个子区域中的每个像素在某种特性的度量下或是由计算得出的特性都是相似的,例如颜色、亮度、纹理。邻接区域在某种特性的度量下有很大的不同。比如下面:


97de09672ab04de9bc836195faed7b74.png


目标分割任务类型


目前的分割任务主要有两种: 语义分割和实例分割


  • 语义分割就是把图像中每个像素赋予一个类别标签(比如汽车、建筑、地面、天空等),标注为人,羊,狗,草地。而不需要羊1,羊2,羊3,羊4,羊5等


23eb4b25fc504acd921675b9ad1511cb.png


  • 实例分割(上图右)其实就是目标检测和语义分割的结合。相对目标检测的边界框,实例分割可精确到物体的边缘;相对语义分割,实例分割需要标注出图上同一物体的不同个体。


0e3f014b15b6425e9c7a04f498fe6d40.png


下面这张图详细表示区别:


23aa32d41da44cb984279224418e9f08.png


6.1.2 目标分割算法介绍


深度学习最初流行的分割方法是,打补丁式的分类方法。逐像素地抽取周围像素对中心像素进行分类。由于当时的卷积网络末端都使用全连接层,所以只能使用这种逐像素的分割方法。但是到了2014年,来自伯克利的(FCN) 卷积网络,去掉了末端的全连接层。随后的语义分割模型基本上都采用了这种结构。


6.1.2.1 算法分类


  • 背景:应用各种传统的计算机视觉和机器学习技术,这些问题已经得到了解决。虽然这些方法很流行,但深度学习革命让相关领域发生了翻天覆地的变化,因此,包括语义分割在内的许多计算机视觉问题都开始使用深度架构来解决,通常是卷积神经网络CNN,而CNN在准确率甚至效率上都远远超过了传统方法。当然,相比于固有的计算机视觉及机器学习分支,深度学习还远不成熟。也因此,还没有一个统一的工作及对于目前最优方法的综述。


  • 基础:最成功用于语义分割的深度学习技术均来自同一个种类,即全卷积网络FCN,成为了深度学习技术应用于语义分割问题的基石


下图就是分割算法的分类类别,主要指的是广义的语义分割的几条方向线:


a1d685b84bcb4b919e88da1adfd8fc1d.png


1、基础算法


  • FCN(全卷积网络)

  • 1、基于解码器的方法

  • SegNet,U-Net

  • 2、基于信息融合的方法


  • 2、整合上下文知识


  • 条件随机场:DeepLab (v1 & v2)、DeepLab v3


  • 扩张卷积:Dilated Convolutions、ENet


  • 多尺度预测:


  • 特征融合:Sharp Mask


  • 循环神经网络:ReSeg、RCNN、LSTM-CF、DAG-RNN


  • 3、实例分割


  • DeepMask、SDS


  • 4、三维数据:Point Net


  • 5、视频序列


  • 6、MaskRCNN


  • 一个小巧、灵活的通用对象实例分割框架。不仅可对图像中的目标进行检测,还可以对每一个目标给出一个高质量的分割结果。


6.1.3 数据集及竞赛


介绍语义分割领域最近最受欢迎的大规模数据集。所有列出的数据集均包含像素级别或点级别的标签。这个列表将根据数据内在属性分为3个部分:


  • 2维的或平面的RGB数据集


  • 2.5维或带有深度信息的RGB(RGB-D)数据集


  • 纯体数据或3维数据集。


下表给出了这些数据集的概览,收录了常见的数据集并提供了一些有用信息如他们的被构建的目的、类数、数据格式以及训练集、验证集、测试集划分情况


1aa969f12c644682b2bc485c68b751c3.png


6.1.3.1 二维数据集


1、PASCAL视觉物体分类数据集


PASCAL视觉物体分类数据集(PASCAL-VOC)(The PASCAL Visual Object Classes Challenge 2012 (VOC2012)) : 包括一个标注了的图像数据集和五个不同的竞赛:分类、检测、分割、动作分类、人物布局。分割的竞赛很有趣:他的目标是为测试集里的每幅图像的每个像素预测其所属的物体类别。有21个类,包括轮子、房子、动物以及其他的:飞机、自行车、船、公共汽车、轿车、摩托车、火车、瓶子、椅子、餐桌、盆栽、沙发、显示器(或电视)、鸟、猫、狗、马、绵羊、人。如果某像素不属于任何类,那么背景也会考虑作为其标签。该数据集被分为两个子集:训练集1464张图像以及验证集1449张图像。


cb9f16d4791d4266b05e99c3c1e33a72.png


2、城市风光数据集


https://www.cityscapes-dataset.com/)是一个大规模的关注于城市街道场景理解的数据集,提供了8种30个类别的语义级别、实例级别以及密集像素标注(包括平坦表面、人、车辆、建筑、物体、自然、天空、空)。该数据集包括约5000张精细标注的图片,20000张粗略标注的图片。数据是从50个城市中持续数月采集而来,涵盖不同的时间以及好的天气情况。开始起以视频形式存储,因此该数据集按照以下特点手动选出视频的帧:大量的动态物体,变化的场景布局以及变化的背景。


736d895f2eb7400db1e43479897f5288.png


6.1.3.2 2.5维度数据集


随着廉价的扫描器的到来,带有深度信息的数据集开始出现并被广泛使用。NYUDv2数据集(http://cs.nyu.edu/∼silberman/projects/indoor scene seg sup.html)包含1449张由微软Kinect设备捕获的室内的RGB-D图像。其给出密集的像素级别的标注(类别级别和实力级别的均有),训练集795张与测试集654张均有40个室内物体的类,该数据集由于其刻画室内场景而格外重要,使得它可以用于某种家庭机器人的训练任务。但是,它相对于其他数据集规模较小,限制了其在深度网络中的应用。


a2b7fbde86f54d39a73d79ea39aff3bd.png


6.1.3.3 3D数据集


纯粹的三维数据集是稀缺的,通常可以提供CAD网格或者其他的体元表示如点云等。为分割问题获取三维数据集是困难的,因此很少有深度学习方法可以处理这种数据。


斯坦福2D-3D-S数据集http://buildingparser.stanford.edu)是一个多模态、大规模室内空间数据集,是斯坦福三维语义分析工作[64]的扩展。提供了多个模态:二维RGB,2.5维添加深度信息的图片、三维网格和点云,均提供分割标注信息。该数据集有70496张高分辨率的RGB图像(1080x1080分辨率),以及其对应的深度图谱、表面法线、网格以及点云,军事带有像素级别及点级别的语义标注信息。这些数据取自6个室内区域,分别来自三个不同的教育与办公建筑。共有271个房间,大约7亿个点,被标以13个类。


739cf55710a249de972bbab3c3f9a3c2.png


6.1.4 算法效果


二维图像领域


目前在二维图像领域认为DeepLab是最可靠的方法,其在几乎每个RGB图像数据集上都远远超过了其他方法。


二维图像这一类有7个数据集:PASCAL VOC 2012、PASCAL上下文、PASCAL人物、CamVid、CityScapes、斯坦福背景以及SiftFlow数据集。这些数据集涵盖了多种情况和优化目标。下面列举其中部分数据集的效果


  • VOC2012 数据集表现


a3630ccf00ff4200807ff446632a703a.png


  • CitySpaces数据集表现


71e02539f0984261a859e453bbcc4e55.png


2.5维数据


对于2.5为数据这一分类,也就是数据中不仅包含RGB三个通道,还包含深度信息,下面是三个数据集的对比分析,分别是SUN-RGB-D、NYUDv2、SUN3D


65b031856c0c4a098a9ebe62e0a58fc9.png


3D数据集


两个三维数据集:ShapeNet Part和Stanford-2D-3D-S


347b6b7986874276ba57b3bad4fae630.png



6.1.4.1 评价指标


对于一个分割系统来说,要对该领域产生重要的影响,必须经过严格的评估。另外,评估过程中必须使用标准的众所周知的评价指标,这样对于现有方法来说才是公平的。进一步的,必须对方法的各个方面进行评估,然后才能断言该系统的有效性,这些方面包括运行时间、占用内存、准确率等。由于对目标或上下文的依赖性,某些指标可能会更加重要,也就是说,在一个实时处理的应用中,可能会为了运行速度而牺牲准确率。但是,为了科学的严谨性,提供该方法的所有可能的评价指标度量是极其重要的。


5.1.1 运行时间


考虑到可重复性以及对后续研究者的帮助,有必要在提供运行时间的同时给出系统运行的硬件信息,以及基准方法的配置。如果合理地做到了这些,后续的研究者们将可以判断出这个方法是否对其真实应用实用,并且可以使用相同的环境进行公平的对比。


5.1.2 占用存储空间


内存占用是分割问题中的另一个重要的考量。在某些场景下,例如机器人平台上的板载芯片,内存并不会像高性能服务器中一样充裕。即使是普遍用来加速深度网络的高端的显卡(GPU)也不会搭载大容量的存储空间。基于这些考虑,以及与在时间问题上相似的对于实际应用的考虑,详细记录网络所占用的最大及平均存储空间是极其有用的。


5.1.3 准确率


已经提出了许多用于评估语义分割问题准确率的评价指标,这些指标通常是像素级准确率及IoU的变体。我们报告了语义分割方面最常用的评价指标,用来度量逐个像素标注类的方法的表现。为便于解释,我们给出下述标号的意思:我们假设共有k+1类,(从L0到Lk,包括一个空类或者是背景),pij是本属于第i类却被分到第j类的像素数量。也就是说,pii代表的是分类正确的正例数量,其他几个p值类似。


平均交并比(MIoU):这是用于分割问题的标准评价指标,其计算的是两个集合的交集与其并集的重合比例,在本问题中,其计算的便是真实分割与系统预测的分割之间的交并比。


cd8bd8c6a2c44331935fd6e69756ee4b.png


MIoU是最常用的一个,因为它最具代表性,且非常简单。许多竞赛以及研究者使用该指标来报告其结果。


6.1.4.2 目标分割总结


  • 目前DeepLab、MaskRCNN是最可靠的方法,其在几乎每个RGB图像数据集上都远远超过了其他方法。


  • 2.5维和多模态数据集上,循环的网络如LSTM-CF起到了主导作用。三维数据的分割问题仍有很长的路要走,PointNet为解决无序点云的分割问题开辟了道路。


  • 处理视频序列同样作为一个待开发区域,至今并没有明确的方向,但是,时钟卷积神经网络凭借其效率和准确率还是成为了最可靠的方法。三维卷积是值得关注的,由于其强大的功能及对多通道输入数据的可扩展性,且三维卷积可以同时捕获时间空间信息。


6.1.5 总结


  • 目标分割的定义


  • 目标分割的任务类型


  • 目标分割的常见数据集


  • 目标分割的评估方式
目录
相关文章
|
10月前
|
机器学习/深度学习 算法 自动驾驶
|
移动开发 文字识别 算法
论文推荐|[PR 2019]SegLink++:基于实例感知与组件组合的任意形状密集场景文本检测方法
本文简要介绍Pattern Recognition 2019论文“SegLink++: Detecting Dense and Arbitrary-shaped Scene Text by Instance-aware Component Grouping”的主要工作。该论文提出一种对文字实例敏感的自下而上的文字检测方法,解决了自然场景中密集文本和不规则文本的检测问题。
1876 0
论文推荐|[PR 2019]SegLink++:基于实例感知与组件组合的任意形状密集场景文本检测方法
|
9月前
|
JSON 算法 数据格式
优化cv2.findContours()函数提取的目标边界点,使语义分割进行远监督辅助标注
可以看到cv2.findContours()函数可以将目标的所有边界点都进行导出来,但是他的点存在一个问题,太过密集,如果我们想将语义分割的结果重新导出成labelme格式的json文件进行修正时,这就会存在点太密集没有办法进行修改,这里展示一个示例:没有对导出的结果进行修正,在labelme中的效果图。
87 0
|
9月前
|
PyTorch 算法框架/工具
语义分割数据增强——图像和标注同步增强
其中常见的数据增强方式包括:旋转、垂直翻转、水平翻转、放缩、剪裁、归一化等。
373 0
|
10月前
|
算法 关系型数据库 数据挖掘
实例分割算法综述
实例分割算法综述
174 0
|
10月前
|
人工智能 自然语言处理 文字识别
理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度
理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度
139 0
|
12月前
|
机器学习/深度学习 人工智能 网络架构
CVPR‘2023 | PIDNet: 基于注意力机制引导的实时语义分割网络架构,完美解决空间细节、上下文和边界信息
CVPR‘2023 | PIDNet: 基于注意力机制引导的实时语义分割网络架构,完美解决空间细节、上下文和边界信息
589 0
|
12月前
|
机器学习/深度学习 编解码 算法
图像目标分割_4 DeepLab-V1
相比于传统的视觉算法(SIFT或HOG),Deep-CNN以其end-to-end方式获得了很好的效果。这样的成功部分可以归功于Deep-CNN对图像转换的平移不变性(invariance),这根本是源于重复的池化和下采样组合层。平移不变性增强了对数据分层抽象的能力,但同时可能会阻碍低级(low-level)视觉任务,例如姿态估计、语义分割等,在这些任务中我们倾向于精确的定位而不是抽象的空间关系。
65 0
图像目标分割_4 DeepLab-V1
|
12月前
|
机器学习/深度学习 编解码 TensorFlow
图像目标分割_5 DeepLab V2 & V3& V3+
DeepLab采用最新的ResNet图像分类深度卷积神经网络构建,与原来基于VGG-16的网络相比,取得了更好的语义分割性能。
260 0