DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)

简介: DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)


由于为语义分割标注真实图像是一个代价昂贵的过程,因此可以用更容易获得的合成数据训练模型,并在不需要标注的情况下适应真实图像。

无监督域适应(UDA)中研究了这一过程。尽管有大量的方法提出了新的适应策略,但它们大多是基于比较经典的网络架构。由于目前网络结构的影响尚未得到系统的研究,作者首先对UDA的不同网络结构进行了基准测试,并揭示了TransformerUDA语义分割方面的潜力。在此基础上提出了一种新的UDA方法DAFormer

DAFormer的网络结构包括一个Transformer编码器和一个多级上下文感知特征融合解码器。它是由3个简单但很关键的训练策略来稳定训练和避免对源域的过拟合:

  1. 源域上的罕见类采样通过减轻Self-training对普通类的确认偏差提高了Pseudo-labels的质量;
  2. Thing-Class ImageNet Feature Distance
  3. Learning rate warmup促进了预训练的特征迁移

DAFormer代表了UDA的一个重大进步。它在GTA→Cityscapes改善了10.8 mIoU、Synthia→Cityscapes提升了5.4 mIoU。


1简介


对于语义分割,标注的成本特别高,因为每个像素都必须被标记。例如,标注一幅Cityscapes图片需要1.5小时,而在恶劣的天气条件下,甚至需要3.3小时。

解决这个问题的一个方法是使用合成数据进行训练。然而,常用的CNN对域迁移很敏感,从合成数据到真实数据的泛化能力较差。该问题在无监督域适应(UDA)中得到解决,通过将由源(合成)数据训练的网络适应于不访问目标标签的目标(真实)数据。

以前的UDA方法主要是使用带有ResNetVGGBackboneDeepLabV2FCN8s网络架构来评估其贡献,以便与之前发表的作品相媲美。然而,即使他们最强大的架构(DeepLabV2+ResNet101)在有监督的语义分割领域也过时了。

例如,它在Cityscape上只能实现65 mIoU的监督性能,而最近的网络达到85 mIoU。由于存在较大的性能差距,使用过时的网络架构是否会限制UDA的整体性能是否会误导UDA的基准测试进展?

为了回答这个问题,本文研究了网络体系结构对UDA的影响,设计了一个更复杂的体系结构,并通过一些简单但关键的训练策略成功地应用于UDA。单纯地为UDA使用更强大的网络架构可能是次最优的,因为它更容易对源域过拟合。

基于在UDA环境下评估的不同语义分割架构的研究,作者设计了DAFormer,一个为UDA量身定制的网络架构。它是基于最近的Transformer,因为Transformer已经被证明比主流的CNN更强大。

DAFormer它们与上下文感知多级特征融合相结合,进一步提高了UDA的性能。DAFormer是第一个揭示TransformerUDA语义分割方面的巨大潜力的工作。

由于更复杂和有能力的架构更容易适应不稳定和对源域过拟合,在这项工作中,引入了3个训练策略,以UDA解决这些问题。

  • 首先,提出了罕见类抽样(RCS)来考虑源域的长尾分布,这阻碍了罕见类的学习,特别是在UDA中,由于Self-training对常见类的确认偏差。通过频繁采样罕见类图像,网络可以更稳定地学习这些图像,提高了伪标签的质量,减少了确认偏差。
  • 其次,提出了一个Thing-Class ImageNet Feature Distance(FD),它从ImageNet特征中提取知识,以规范源训练。当源域仅限于特定类的几个实例(多样性较低)时,这尤其有用,因为它们的外观与目标域(域转移)不同。如果没有FD,这将导致学习缺乏表现力和特定于源领域的特性。当ImageNet特征被训练为事物类时,将FD限制为标记为事物类的图像区域。
  • 最后,在UDA中引入了学习率warm up。通过在早期训练中线性提高学习率到预期值,学习过程稳定,从ImageNet预处理训练的特征可以更好地迁移到语义分割。

image.png图1

如图1所示,DAFormer在很大程度上优于以前的方法,这支持了作者的假设,即网络架构和适当的训练策略对UDA发挥了重要作用。在GTA→cityscape上,将mIoU从57.5提高到68.3及以上,在Synthia→Cityscape上,将mIoU从55.5提高到60.9。

特别是DAFormer学习了以前的方法难以处理的更难的类。例如,在GTA→Cityscapes模式中,将火车等级从16 mIoU提高到65 mIoU,卡车等级从49 mIoU提高到75 mIoU,公共汽车等级从59 mIoU提高到78 mIoU。

总体而言,DAFormer代表了UDA的一个重大进步。本文的框架可以在16小时内在单个RTX 2080 Ti GPU上进行一个阶段的训练,这与之前的方法(如ProDA)相比简化了它的训练时间,后者需要在4个V100 GPU上训练1个阶段需要很多天。


2相关方法


2.1 语义分割

自从引入卷积神经网络用于语义分割以来,它们一直占据着该领域的主导地位。通常,语义分割网络遵循编码器-解码器的设计。为了克服瓶颈处空间分辨率低的问题,提出了skip connectionsdilated convolutionsresolution preserving的架构等补救措施。进一步的改进是通过利用上下文信息实现的,例如使用pyramid pooling注意力模块

受基于注意力的Transformer在自然语言处理方面的成功启发,它们被用于图像分类和语义分割,取得了最先进的结果。

对于图像分类,CNN对分布偏移(如图像损坏对抗性噪声域偏移)很敏感。最近的研究表明,在这些特性方面,TransformerCNN更健壮。CNN关注的是纹理,而Transformer更关注的是物体的形状,它更类似于人类的视觉。

在语义分割方面,采用了ASPP和跳跃式连接来提高鲁棒性。此外,基于Transformer的架构提高了基于CNN网络的鲁棒性。

2.2 无监督域自适应(UDA)

UDA方法可分为Adversarial-training方法和Self-training方法。

Adversarial-training方法的目的是在GAN框架中,在输入、特征、输出或patch级别对齐源和目标域的分布。对鉴别器使用多个尺度或类别信息可以优化比对。

Self-training中,利用目标域的伪标签对网络进行训练。大多数的UDA方法都是离线预计算伪标签,训练模型,然后重复这个过程。或者,伪标签可以在训练期间在线计算。为了避免训练不稳定性,采用了基于数据增强或域混淆的伪标签原型或一致性正则化方法。

几种方法还包括Adversarial-trainingSelf-training相结合,训练与辅助任务相结合,或进行测试时间UDA

数据集通常是不平衡的,并且遵循长尾分布,这使得模型偏向于学习公共类。解决这个问题的策略有重采样损失重加权迁移学习。在UDA中,采用重加权类平衡采样进行图像分类。

本文将类平衡抽样从分类扩展到语义切分,并提出了罕见类抽样,该抽样解决了罕见类常见类在单个语义切分样本中同时出现的问题。此外,还证明了重采样对于UDA训练Transformer特别有效。

Li等人已经证明,从旧任务中提取的知识可以作为新任务的正则化器。作者也将这一思想应用于Self-training中,实验表明它对Transformer特别有效,并通过将特征距离限制在图像区域中进行改进,如ImageNet主要标记事物类。


3本文方法


3.1 Self-Training (ST) for UDA

UDA中,神经网络为了实现良好的性能,对于目标图像,训练使用源域图像和One-hot标签,没有使用目标标签。

在源域上使用分类交叉熵(CE)损失来训练网络

image.png

由于该网络不能很好地推广到目标域,通常导致对目标图像的性能较低。

为了解决这一领域的差距,人们提出了几种策略,可以分为Adversarial-training方法和Self-training方法。在这项工作中使用Self-training,因为Adversarial-training训练不稳定。为了更好地将知识从源域转移到目标域,Self-training方法使用教师网络φ来为目标域数据生成伪标签:

image.png

其中[·]为艾弗森括号。请注意,教师网络没有梯度反向传播。另外,对伪标签进行质量/置信度估计。在这里,使用像素超过阈值τ的最大softmax概率:

image.png

伪标签及其质量估计被用于在目标域上额外训练网络:

image.png

这些伪标签可以通过在线或离线来生成。本文选择了在线Self-training。在在线Self-training中,φ在训练期间基于进行更新。通常,权值φ被设置为每个训练步骤t后的权值的指数移动平均值,以增加预测的稳定性:

image.png

如果学生网络训练增强目标数据,教师网络φ使用非增强目标数据半监督学习和无监督域适应生成伪标签,Self-training方法已经被证明是特别有效的。在这项工作中,遵循DACS和使用颜色抖动高斯模糊类Mix数据增强学习更多的领域稳健的特性。

3.2 DAFormer Network Architecture

以前的UDA方法大多使用(简化的)DeepLabV2网络架构来评估,都是一些比较老的方法。因此,作者自行为UDA设计了一个定制的网络体系结构,不仅可以实现良好的监督性能,还可以提供良好的领域适应能力。

对于编码器,目标是建立一个强大而又稳健的网络架构。假设稳健性是为了实现良好的域自适应性能的一个重要特性,因为它可以促进域不变特征的学习。

基于最近的发现,TransformerUDA的一个很好的选择,因为它们满足这些标准。虽然TransformerSelf-Attention和卷积都是加权和,但它们的权值计算方式不同:在CNN中,权值在训练中学习,但在测试中固定;在Self-Attention机制中,权值是基于每对Token之间的相似性或亲和性动态计算的。因此,Self-Attention机制中的自相似性操作提供了可能比卷积操作更具有自适应性和通用性的建模手段。

作者遵循Mix Transformer(MiT)的设计,它是为语义分割量身定制的。图像被分成4×4大小的小块(而不是ViT中的16×16),以便为语义分割保留更多的细节。为了应对高特征分辨率,在Self-Attention块中使用了序列约简。Transformer编码器设计用于产生多级特征映射。下采样是通过overlapping patch merging实现的,这样可以保持局部连续性。

以前使用Transformer Backbone进行语义分割的工作通常只利用局部信息作为解码器。相反,作者建议在解码器中利用额外的上下文信息,因为这已被证明可以增加语义分割的稳健性,这是UDA的一个有用属性。

DAFormer不只是考虑瓶颈特性的上下文信息,而是使用来自不同编码器级别的特性的上下文信息,因为附加的早期特征为高分辨率的语义分割提供了有价值的low-level信息,这也可以提供重要的上下文信息。

图2(b)

DAFormer解码器的架构如图2(b)所示。在进行特征融合之前,通过1×1卷积将每个嵌入到相同数量的通道中,并对特征进行双线性上采样至大小,然后拼接。

对于上下文感知的特征融合,使用多个具有不同扩张率的并行3×3深度可分离卷积和一个1×1卷积来融合它们,类似于ASPP,但没有全局平均池化

与最初使用ASPP相比,不仅将其应用于瓶颈特性,而且将其用于融合所有堆叠的多层次特性。深度可分离卷积具有比常规卷积参数少的优点,可以减少对源域的过拟合。

3.3 Training Strategies for UDA

UDA训练一个更强大的架构的一个挑战是对源域的过拟合。为了解决这个问题,引入了3种策略来稳定和规范UDA训练:

  • 罕见类采样
  • Thing-Class ImageNet特征距离
  • 学习率Warmup

image.png图2(a)

总体UDA框架如图2(a)所示。

1、罕见类采样

尽管DAFormer能够在困难类上获得比其他架构更好的性能,但作者观察到,源数据集中罕见的类的UDA性能在不同运行中存在显著差异。根据数据采样顺序的随机种子,这些类是在训练的不同迭代中学习的。在训练中学习的类越晚,在训练结束时的表现越差。

作者假设,如果由于随机性,含有罕见类的相关样本在训练中出现较晚,网络才开始学习它们,更重要的是,很有可能这个网络已经学会了对普通类别的强烈偏爱,使得用很少的样本“重新学习”新概念变得困难。

为了解决这个问题,作者提出了罕见类采样(RCS)。它经常从源领域对具有罕见类的图像进行采样,以便更好地、更早地学习它们。源数据集中每个c类的频率可以根据类像素的个数来计算:

image.png

某一类c的采样概率P(c)被定义为其频率的函数:

image.png

因此,频率越小的类,其抽样概率越高。T控制着分布的平滑度。T越高,分布越均匀;T越低,分布越集中在小的稀有类上。

2、Thing-Class ImageNet特征距离

通常,语义分割模型用ImageNet分类的权重初始化。考虑到ImageNet还包含来自一些相关的高级语义类的图像,UDA经常难以区分这些类,假设ImageNet特征可以提供除通常的预训练之外的有用监督。特别是,作者观察到DAFormer网络能够在训练开始时分割一些类,但在几百个训练步骤后就会失去监督效果。

因此,假设ImageNet预训练的有用特征被LS破坏,并且模型对合成源数据的过拟合。

为了避免这一问题,基于语义分割UDA模型的瓶颈特征和ImageNet模型的瓶颈特征的特征距离(FD)对模型进行规范化:

image.png

然而,ImageNet模型主要训练对象类(具有明确形状的对象,如汽车或斑马),而不是对象类(无定形的背景区域,如道路或天空)。因此,只计算包含由二进制Mask 描述的事物类的图像区域的:

image.png

这个Mask是由 downscaled label 得到的:

image.png

为了将标签降采样到瓶颈特征大小,对每个类通道应用patch size为的平均池化,当一个类超过比率r时,则该类将被保留:

image.png

这确保了只有包含主导物类的瓶颈特征像素才被考虑为特征距离。

总体UDA loss L是各loss分量的加权和:

image.png

3、学习率Warmup

线性Warmup学习率开始训练已经成功地用于训练网络和Transformer,因为它通过避免一个大的自适应学习率方差改善了网络泛化。作者最近在UDA中引入了学习率Warmup系统。假设这对UDA来说特别重要,因为来自ImageNet预训练的特征会剥夺网络对真实领域的有用监督。

在Warmup到迭代期间,迭代的学习速率设置为。

相关文章
|
6月前
|
机器学习/深度学习 算法 机器人
【论文速递】TMM2023 - FECANet:用特征增强的上下文感知网络增强小样本语义分割
【论文速递】TMM2023 - FECANet:用特征增强的上下文感知网络增强小样本语义分割
|
23天前
|
机器学习/深度学习 人工智能
类人神经网络再进一步!DeepMind最新50页论文提出AligNet框架:用层次化视觉概念对齐人类
【10月更文挑战第18天】这篇论文提出了一种名为AligNet的框架,旨在通过将人类知识注入神经网络来解决其与人类认知的不匹配问题。AligNet通过训练教师模型模仿人类判断,并将人类化的结构和知识转移至预训练的视觉模型中,从而提高模型在多种任务上的泛化能力和稳健性。实验结果表明,人类对齐的模型在相似性任务和出分布情况下表现更佳。
53 3
|
2月前
|
机器学习/深度学习 存储 算法
Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系
通过探索大语言模型(LLM)架构之间的潜在联系,我们可能开辟新途径,促进不同模型间的知识交流并提高整体效率。尽管Transformer仍是主流,但Mamba等线性循环神经网络(RNN)和状态空间模型(SSM)展现出巨大潜力。近期研究揭示了Transformer、RNN、SSM和矩阵混合器之间的深层联系,为跨架构的思想迁移提供了可能。本文深入探讨了这些架构间的相似性和差异,包括Transformer与RNN的关系、状态空间模型在自注意力机制中的隐含作用以及Mamba在特定条件下的重写方式。
119 7
Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系
|
4月前
|
机器学习/深度学习
ICML 2024:揭示非线形Transformer在上下文学习中学习和泛化的机制
【7月更文挑战第10天】Rensselaer Polytechnic Institute和IBM的研究者探讨了非线性Transformer在上下文学习的理论基础。他们展示了Transformer如何通过注意力层聚焦相关上下文,并利用MLP层进行预测,揭示了其在不需微调情况下的泛化能力。尽管研究局限于二进制分类和单层模型,它为理解复杂模型在不同任务和领域的潜在适应性提供了新视角。[论文链接:](https://arxiv.org/pdf/2402.15607)**
40 1
|
6月前
|
机器学习/深度学习 计算机视觉 网络架构
【FCN】端到端式语义分割的开篇之作! 从中窥探后续语义分割网络的核心模块(一)
【FCN】端到端式语义分割的开篇之作! 从中窥探后续语义分割网络的核心模块(一)
405 0
【FCN】端到端式语义分割的开篇之作! 从中窥探后续语义分割网络的核心模块(一)
|
6月前
|
机器学习/深度学习 编解码 自然语言处理
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
382 0
|
6月前
|
编解码 算法 测试技术
【论文精读】ICLR2022 - 语言驱动的语义分割
【论文精读】ICLR2022 - 语言驱动的语义分割
|
机器学习/深度学习 数据采集 Oracle
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
382 0
|
机器学习/深度学习 人工智能 算法
CVPR 2022 | CNN自监督预训练新SOTA:上交、Mila、字节联合提出具有层级结构的图像表征自学习新框架
CVPR 2022 | CNN自监督预训练新SOTA:上交、Mila、字节联合提出具有层级结构的图像表征自学习新框架
263 0
|
机器学习/深度学习 算法
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》
【论文写作分析】之五《融合类别特征扩展与N-gram子词过滤的fastText短文本分类》