图像目标分割_5 DeepLab V2 & V3& V3+

简介: DeepLab采用最新的ResNet图像分类深度卷积神经网络构建,与原来基于VGG-16的网络相比,取得了更好的语义分割性能。

815902569f6a467a99304f9ac1482386.png


6.5.1 DeepLab V2


6.5.1.1 改变特点


  • atrous convolution


  • 采用ASPP ( atrous spatial pyramid pooling) 多尺度获得更好的分割效果


  • 合并深度卷积网络和概率图模型方法,增强对物体边界的定位。


  • 基础层由VGG16转为ResNet


和v1不同:


  • 通过多尺度输入处理或者多孔空间金字塔池化,可以更好地分割物体。


  • DeepLab采用最新的ResNet图像分类深度卷积神经网络构建,与原来基于VGG-16的网络相比,取得了更好的语义分割性能。


6.5.1.2 Astrous conv


结构如下:


b104714d78724f0e8330a2a765d4afa3.png


6.5.1.3 ASPP


使用多个不同采样率上的多个并行多孔卷积层。每个采样率上提取的特征再用单独的分支处理,融合生成最后的结果。


50ff578f8b004a8db8b7d24012a64ea5.png


多孔空间金字塔池化(ASPP)。为了分类中间像素(橙色),ASPP用不同采样率的多个并行滤波器开发了多尺度特征。视野有效区用不同的颜色表示。


ed3934073bf04c8084ad219dd74ce6a3.png


  • DeepLab-LargeFOV 使用 rate=12的空洞卷积


  • DeepLab-ASPP 使用 不同 rate 的多个 filter 在 multiple scales 获得物体和内容,有不小的提升。


6.5.1.4 CRF


与DeepLabv1一样


6.5.1.5 训练


DeepLabv2在PASCAL VOC 2012, PASCAL-Context, PASCALPerson- Part, and Cityscapes四个数据集上做了评估。


训练细节:


项目 设置
DCNN模型 权重采用预训练的VGG16,ResNet101
DCNN损失函数 输出的结果与ground truth下采样8倍做像素交叉熵
训练器 SGD,batch=20
学习率 初始为0.001,最后的分类层是0.01
权重 0.9的动量, 0.0005的衰减


  • 模型对预训练的VGG16和ResNet101模型做fine-tune。训练时DCNN和CRF的是解耦的,即分别训练,训练CRF时DCNN输出作为CRF的一元势函数输入是固定的。


  • 大概训练验证手段是对CRF做交叉验证。使用ω2=3和σγ=3在小的交叉验证集上寻找最佳的ω1,σα,σβ,采用从粗到细的寻找策略。


6.5.1.6 效果


PASCAL VOC 2012,在PASCAL VOC 2012上评估了DeepLab-CRF-LargeFOV模型,这里做了三个主要的改进:


  • 1.训练期间使用不同的学习策略;


  • 2.使用ASPP模块;


  • 3.使用深度网络和多层次处理.


6.5.2 DeepLab V3


6.5.2.1 V3的改进


  • 连续池化和下采样,使特征分辨率下降,不利于定位。


  • 全局特征或上下文之间的互相作用有助于做语义分割,4种解决目标多尺度问题的结构


  • 去除条件随机场CRF


V3的改进


  • 1、提出了更通用的框架,适用于任何网络


  • 2、改进了ASPP:由不同采样率的空洞卷积和BN层组成,我们尝试以级联或并行的方式布局模块。


  • 3、讨论了一个重要问题:使用大采样率的3×3 的空洞卷积,因为图像边界响应无法捕捉远距离信息,会退化为1×1的卷积, 将图像级特征融合到ASPP模块中。


6.5.2.2 V3工作


V3做了一个总结,全局特征或上下文之间的互相作用有助于做语义分割,下面是四种不同类型利用上下文信息做语义分割的全卷积网络。


0755df5691064503a3bca0064d5c7b8b.png


  • 图像金字塔(Image pyramid):小尺度的输入响应控制语义,大尺寸的输入响应控制细节。通过拉布拉斯金字塔对输入变换成多尺度,传入DCNN,融合输出。


  • 这类的缺点是:因为GPU存储器的限制,对于更大/更深的模型不方便扩展。通常应用于推断阶段。


  • 高斯金字塔(Gaussianpyramid): 用来向下采样,主要的图像金字塔


  • 拉普拉斯金字塔(Laplacianpyramid): 用来从金字塔低层图像重建上层未采样图像


  • 编码器-解码器(Encoder-decoder):编码器的高层次的特征容易捕获更长的距离信息,在解码器阶段使用编码器阶段的信息帮助恢复目标的细节和空间维度。


  • 例如SegNet利用下采样的池化索引作为上采样的指导;U-Net增加了编码器部分的特征跳跃连接到解码器;RefineNet等证明了Encoder-Decoder结构的有效性。


  • 上下文模块(Context module):包含了额外的模块用于级联编码长距离的上下文。有效的方法是DenseCRF并入DCNN中,共同训练DCNN和CRF。


  • 空间金字塔池化(Spatial pyramid pooling):采用空间金字塔池化可以捕捉多个层次的上下文。


  • 在ParseNet中从不同图像等级的特征中获取上下文信息;DeepLabv2提出ASPP,以不同采样率的并行空洞卷积捕捉多尺度信息。PSPNet在不同网格尺度上执行空间池化,并在多个数据集上获得优异的表现。


6.5.2.3 架构


  • Deeplab 把在 ImagNet 上预训练得到的 ResNet 作为它的主要特征提取网络。


  • 最后一个 ResNet Block


  • 顶部使用了空洞空间金字塔池化 (ASPP,Atrous Spatial Pyramid Pooling)


0c0d2178e807435ea1f3286c7b5f8c3c.png


下面表示空洞卷积提取密集特征、讨论空洞卷积模块以级联(串行)和并行布局


1、Model 1 :Going Deeper with Atrous Convolution


串行的空洞卷积模型(modules with atrous convolution laid out in cascade)变得更深了。


0f5bce6b1a4347b6873cac9842cccab9.png


采用串行的ResNet,级联block为block5、block6、block7(均为block4的复制)。输出步长为16.在没有使用带孔卷积的情况下它的输出步长是256。


Multi-grid Method


对block4~block7 采用不同atrous rates


2、Module 2 :Parallel modules with atrous convolution (ASPP)


898187f4596444bb9222ad51673b810b.png


  • 1、为了增加全局的语境信息,ASPP 还通过全局平均池化(GAP global average pooling)获得图像级特征。即将特征做全局平均池化,经过卷积,再融合。


  • 将image pooling得到的图像级特征输入到一个1×1 convolution with 256 filters(加入 batch normalization)中


  • 然后将特征进行双线性上采样(bilinearly upsample)到特定的空间维度


  • 2、改进的ASPP由一个 1×1 卷积,和三个 3×3卷积组成,步长为(6,12,18),输出步长为16


  • 3、ASPP所有分支处理好的特征以及image pooling 卷积上采样之后的特征将会 concat 在一起通过另一个 1×1 卷积(也有着256个filter,加入BN)


  • 4、最后还有一个 1×1 卷积产生最终的分类;条件随机场(CRF)被去除了,模型比较简洁易懂。


这个版本的 ASPP 包含 4 个并行的操作:


  • 一个 1×1 的卷积


  • 三个 3×3 的卷积(扩张率分别是(6,12,18)) 特征图的标称步长(nominal stride)是 16.


6.5.2.4 实验


总结:


  • 1、级联模块越多,准确率越好,速度下降


  • 2、使用Multi_Grid 方法比原来要好


  • 3、使用Hole卷积 ,步长越小,准确率越好,速度下降


  • 4、ASPP最好的模型准确率高于级联带孔卷积模型的最优值,选择ASPP作为我们最终的模型。

PASCAL VOC 2012效果


在 PASCAL VOC-2012 达到 86.9 mIOU


7b7984bba8a544879d0145d01cf2fff1.png


1、训练设置


部分 设置
数据集 PASCAL VOC 2012
工具 TensorFlow
剪裁尺寸 采样513大小的裁剪尺寸
学习率策略 采用poly策略,在初始学习率基础上$(1 - \frac{iter}{max_iter})power$,其中power=0.9
BN层策略 1、output_stride=16时,采用batchsize=16,同时BN层的参数做参数衰减0.9997。 2、在增强的数据集上,以初始学习率0.007训练30K后,冻结BN层参数
上采样策略 之前将最终的输出与GroundTruth下采样8倍做比较。发现保持GroundTruth更重要,所以将最终的输出上采样8倍与完整的GroundTruth比较。


2、级联使用多个带空洞卷积的block模块


参数 效果
OS(output_stride) OS(output_stride)越小,mIOU越高。stride=256,信号严重抽取,性能大大下降
Hole 使用空洞卷积
ResNet 网络越深,block越多,效果越好
Multi-grid 主分支的三个卷积都使用空洞卷积,Multi-gird策略 (1,2,1)时+网络越深 效果越好


3、ASPP设置


提高效果的方法 设置
Method Multi-grid (1,2,4)+APSS(6,12,18)+Image Pooling
OS
inputs Multi-scale input during test Adding left-right flipped inputs
pretrained Model pretrained on MS-COCO


参数 效果
同时使用上采样和BN 越好
batch_size 越大效果越好
eval output_stride 影响 train output_stride = 16 , eval output_stride=8/16时,效果越好


6.5.3 V3总结


  • 1、Deeplab v3的级联模型和ASPP模型在PASCAL VOC 2012的验证集上表现都要比Deeplab v2好


  • 2、提升主要来自增加了调好的批次归一化参数和更好地编码多尺度上下文信息


6.5.4 DeepLab v3+


2018年2月份,Google 团队在 arXiv 放出了 DeepLabv3+,在语义分割领域取得新的 state-of-the-art 水平。


DeepLabv3+ 继续在模型的架构上作文章,为了融合多尺度信息,引入语义分割常用的 encoder-decoder。在 encoder-decoder 架构中,引入可任意控制编码器提取特征的分辨率,通过空洞卷积平衡精度和耗时。


6.5.4.1 与DeepLab V3对比


  • deeplab v3 缺陷


  • 输出图放大的效果不好,信息太少


  • 改进


  • 1、encoder-decoder


  • 设计基于v3的 decode module


  • 把中间一层的特征图用于输出图放大


  • 为了融合多尺度信息,引入语义分割常用的 encoder-decoder


  • 2、Xception


6.5.4.2 结构


结构对比


1、是v3的纵式结构;2、是常见的编码—解码结构3、V3+提出的基于deeplab v3的encode-decode结构


a2505ec5981d4a7b804c55010debd90c.png


1、V3+结构细节


在语义分割任务中采用 Xception 模型,在 ASPP 和解码模块使用depthwise separable convolution,提高编码器-解码器网络的运行速率和健壮性


ebd395f8b0864025a8721850d939d288.png


  • encoder 的output feature 首先 经过一个 1×1 conv,然后 bilinearly 向上采样4倍
  • 和具有相同空间分辨率的低层特征concat
  • 再经过一个3×3 conv ,上采样4倍


2、Modified Aligned Xception(修正对齐的Xception)


  • 1、Entry flow 保持不变,添加了更多的 Middle flow。
  • 2、所有的 max pooling 被 depthwise separable convolutions 替代。
  • 3、在每个 3x3 depthwise convolution 之外,增加了 batch normalization 和 ReLU。


其中三种不同的卷积对比:


1e1953b814564eebacb99d9f57701d26.png


Sep Conv是深度可分离卷积(Depthwise separable convolution)


868e0047ab794ab5a071e3edc7d4a271.png


6.5.4.3 训练细节


部分 设置
数据集 PASCAL VOC 2012(1464 (train)、1449 (val)和1456 (test)像素级注释图像)
工具 TensorFlow
Pretrained ImageNet-1k pretrained ResNet-101 or modified aligned Xception
学习率策略 采用poly策略,在初始学习率基础上$(1 - \frac{iter}{max_iter})power$,其中power=0.9,初始0.007
crop size 513 ×513
output_stride 16
Train ent-to-end


6.5.4.4 实验效果


  • 两个结构:论文提出的模型在主干网络 ResNet-101 和 Xception均进行验证。两种方式均在 ImageNet 预训练。其中 Xception 预训练过程中,使用 50 个 GPU,每个 GPU batch size=32,分辨率 299x299。Xception 相比 ResNet-101,在 Top-1 和 Top-5 分别提高 0.75% 和 0.29%。


  • 数据集具体结果:在 PASCAL VOC 2012 数据集上取得新的 state-of-art 表现,89.0 mIOU。使用 depthwise separable convolution,使用 Pretraining on COCO 和 Pretraining on JFT,在这些 tricks 辅助下,PASCAL VOC 2012 test set 达到惊人的 89.0%,取得新的 state-of-the-art 水平。


7512009dfe3c47548fd495578e555f5b.png


6.5.5 DeepLab系列总结


从 DeepLabv1-v4 系列看,空洞卷积必不可少。从 DeepLabv3 开始去掉 CRFs。 DeepLabv1-v4 没有用很多 tricks,都是从网络架构中调整,主要是如何结合多尺度信息和空洞卷积。


架构 DeepLabv1 DeepLabv2 DeepLabv3 DeepLabv3+
Backbone VGG-16 ResNet ResNet+ Xception
Atrous Conv
CRF × ×
ASPP × ASPP ASPP+ ASPP+
Encoder-decoder × × ×


6.5.6 小结


  • V2的ASPP结构以及使用深度网络Resnet


  • V3的ASPP+结构


  • V3+(V4)的Xception引入和具有Encder-decoder的ASPP
目录
相关文章
|
5月前
|
算法 计算机视觉 Python
使用分水岭算法分割图像
【6月更文挑战第4天】使用分水岭算法分割图像。
433 4
|
存储 传感器 数据可视化
3D目标检测数据集 KITTI(标签格式解析、3D框可视化、点云转图像、BEV鸟瞰图)
本文介绍在3D目标检测中,理解和使用KITTI 数据集,包括KITTI 的基本情况、下载数据集、标签格式解析、3D框可视化、点云转图像、画BEV鸟瞰图等,并配有实现代码。
1587 1
|
移动开发 数据可视化 算法
Pointnet语义分割任务S3DIS数据集
Pointnet语义分割任务S3DIS数据集
489 0
|
机器学习/深度学习 编解码 算法
图像目标分割_4 DeepLab-V1
相比于传统的视觉算法(SIFT或HOG),Deep-CNN以其end-to-end方式获得了很好的效果。这样的成功部分可以归功于Deep-CNN对图像转换的平移不变性(invariance),这根本是源于重复的池化和下采样组合层。平移不变性增强了对数据分层抽象的能力,但同时可能会阻碍低级(low-level)视觉任务,例如姿态估计、语义分割等,在这些任务中我们倾向于精确的定位而不是抽象的空间关系。
122 0
图像目标分割_4 DeepLab-V1
|
存储 机器学习/深度学习 编解码
使用训练分类网络预处理多分辨率图像
说明如何准备用于读取和预处理可能不适合内存的多分辨率全玻片图像 (WSI) 的数据存储。肿瘤分类的深度学习方法依赖于数字病理学,其中整个组织切片被成像和数字化。生成的 WSI 具有高分辨率,大约为 200,000 x 100,000 像素。WSI 通常以多分辨率格式存储,以促进图像的高效显示、导航和处理。 读取和处理WSI数据。这些对象有助于使用多个分辨率级别,并且不需要将图像加载到核心内存中。此示例演示如何使用较低分辨率的图像数据从较精细的级别有效地准备数据。可以使用处理后的数据来训练分类深度学习网络。
331 0
|
机器学习/深度学习 存储 编解码
图像目标分割_1 概述
图像分割的目的:简化或改变图像的表示形式,使得图像更容易理解和分析。图像分割通常用于定位图像中的物体和边界(线,曲线等)。更精确的,图像分割是对图像中的每个像素加标签的一个过程,这一过程使得具有相同标签的像素具有某种共同视觉特性。
404 0
|
机器学习/深度学习 存储 人工智能
用CNN做基础模型,可变形卷积InternImage实现检测分割新纪录!
用CNN做基础模型,可变形卷积InternImage实现检测分割新纪录!
237 0
|
机器学习/深度学习 编解码 算法
图像目标分割_6 Mask RCNN
目标检测和语义分割的效果在短时间内得到了很大的改善。在很大程度上,这些进步是由强大的基线系统驱动的,例如,分别用于目标检测和语义分割的Fast/Faster R-CNN和全卷积网络(FCN)框架。这些方法在概念上是直观的,提供灵活性和鲁棒性,以及快速的训练和推理。论文作者在这项工作中的目标是为目标分割开发一个相对有力的框架。
204 0
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络理论篇】 33 基于图片内容处理的机器视觉:目标检测+图片分割+非极大值抑制+Mask R-CNN模型
目标检测任务的精度相对较高,主要是以检测框的方式,找出图片中目标物体所在的位置。目标检测任务的模型运算量相对较小,速度相对较快。
312 0
|
传感器 人工智能 数据可视化
点云配准新方案!SuperLine3D:激光雷达点云中的自监督线分割和描述子提取(ECCV2022)
电线杆和建筑物的轮廓是城市道路上随处可见的物体,可为计算机视觉提供可靠的提示。为了重复提取它们作为特征并在离散的LiDAR帧之间实现关联以进行点云匹配。本文提出了一个用于LiDAR点云中3D线的基于学习的特征分割和描述子模型。
点云配准新方案!SuperLine3D:激光雷达点云中的自监督线分割和描述子提取(ECCV2022)
下一篇
无影云桌面