CVPR阿里优秀论文:针对场景分割两大问题提出语境对比特征和门控多尺度融合

简介: IEEE CVPR-18是计算机视觉领域最具影响力之一的学术会议。本次会议阿里巴巴有18篇优秀论文被收录,本篇就是其中之一。本文讨论了场景分割问题,场景分割需要进行像素级别的分类,上下文语境和多尺度特征融合对实现更好的场景分割至关重要。

image

小叽导读:IEEE CVPR-18是计算机视觉领域最具影响力之一的学术会议。本次会议阿里巴巴有18篇优秀论文被收录,本篇就是其中之一。本文讨论了场景分割问题,场景分割需要进行像素级别的分类,上下文语境和多尺度特征融合对实现更好的场景分割至关重要。

作者:HenghuiDing[1],Xudong Jiang[1],Bing Shuai[1],Ai Qun Liu[1]Gang Wang[2].

[1]School of Electrical and ElectronicEngineering, Nanyang Technological University, Singapore

[2]Alibaba AI Labs, Hangzhou, China

本文首先提出了一种上下文语境和局部信息对比的特征,这种特征不仅利用了信息丰富的上下文语境,而且通过与语境的对比来聚焦更具辨识度的局部信息。这种特征提高了网络的解析性能,尤其提高了对不明显物体和背景填充部分的分割效果。同时,本文提出了一种门控融合机制,不同于以往的多尺度特征融合,门控融合可以根据输入图像的特征表象来为不同位置的分类选择性地融合多尺度特征。

门控的值由本文提出的网络产生,会随输入图像的变化而变化。这种门口融合机制可以控制不同尺度特征的信息流动,使网络对不同尺度的物体有更强的适应力。本文提出的模型在Pascal Context, SUN-RGBD和COCO Stuff 三个场景分割数据集上验证了性能,取得了目前最高的场景分割性能。

本文致力于场景分割中有两大问题:场景图片中像素形式的多样化(例如,显著或者不显著,前景或者背景),场景图片中物体大小的多样性。并针对这两个问题分别提出了语境对比局部特征和门控多尺度融合。

▌一、语境对比局部特征

image

图一

场景图片中物体形式具有多样化,如显著或者不显著,前景或者背景。图像分类问题一般仅关注于图像中最显著的物体,而场景分割需要对所有像素进行分类,所以在进行场景分割时应该对不同存在形式的物体都给予关注,尤其是不显著的物体和背景。

上下文语境信息对于实现良好的场景分割至关重要。然而语境信息容易被场景图片中的显著物体的特征所主导,导致场景中其他的不显著物体和背景的特征被弱化甚至忽略。如图一所示,像素A属于不显著物体。像素A的局部特征(Local)包含了像素A的主要信息,但是缺乏足够的全局信息(如路),不能实现稳定的分割。但是收集语境信息(Context),就会带来旁边显著物体(人)的特征信息,导致像素A的语境特征被人的特征信息所主导,像素A自身的特征信息被弱化甚至忽略。

为此,本文提出了语境对比局部特征,同时收集像素A的局部特征和全局语境特征(如图二所示),然后将两者进行对比融合,一方面可以保护并突出局部特征,另一方面充分利用了信息丰富的语境特征。语境对比的局部特征,包含了富含信息的全局特征以及对像素A至关重要的局部特征,并且使得像素A的特征不会被其他显著物体特征所主导。语境对比局部特征的效果如图一中最后一幅图片所示。同时,在最终模型CCL中,多个context-local被连接起来以获得多层次的语境对比局部特征,如图二所示。

image

图二

▌二、门控多尺度融合

场景分割的数据集中存在着大量的不同大小的物体,不同大小的物体所需的感受野和特征尺度不同,用单一尺度的特征对所有像素进行分类是不合理的,因此需要进行多尺度特征融合。本文采用了FCN网络中的skip结构来获取DCNN不同特征层的特征信息,但FCN中对skip的结果简单相加融合,并没有考虑不同skip结果的差异性。不同于FCN的是,本文提出了一种门控机制来进行多尺度特征的选择性融合。门控多尺度融合根据特征尺度、语境等信息来动态决定图像中每个像素最适合的感受野,对skip的分割结果进行选择性融合。门控的值由本文提出的网络产生(如图三所示),网络根据输入图像的特征表象生成相应的门控值,由这些门控的值来决定不同层的skip以多大比例进行融合,控制网络信息流动,产生最终的预测。

通过门控多尺度融合,网络可以为每个像素选择一个合理的组合方案,将合适的特征增强并将不合适的特征进行抑制。在门控多尺度融合中,可以添加更多的skip来提取更丰富的多尺度特征信息,同时不用担心skip中有不好的结果。这种门口融合机制可以控制不同尺度特征的信息流动,使网络对不同尺度的物体有更强的适应力。

image


图三

▌三、实验

场景分割效果对比如图四所示,本文提出的方法对不显著物体和背景的分割效果有明显提升,同时对多尺度物体有很强的适应力。

image

图四

原文发布时间为:2019-02-18
本文作者:阿里巴巴机器智能
本文来自云栖社区合作伙伴“ 阿里巴巴机器智能”,了解相关信息可以关注“ 阿里巴巴机器智能”。

相关文章
|
机器学习/深度学习 存储 计算机视觉
北京大学提出 PTQ4ViT | 双均匀量化+Hessian引导度量,推进Transformer模型落地
北京大学提出 PTQ4ViT | 双均匀量化+Hessian引导度量,推进Transformer模型落地
285 1
|
4月前
|
机器学习/深度学习 编解码 vr&ar
NeurIPS 2024最佳论文,扩散模型的创新替代:基于多尺度预测的视觉自回归架构
本文详细解读NeurIPS 2024最佳论文《视觉自回归建模:基于下一尺度预测的可扩展图像生成》。该研究提出VAR模型,通过多尺度token图和VAR Transformer结构,实现高效、高质量的图像生成,解决了传统自回归模型在二维结构信息、泛化能力和计算效率上的局限。实验表明,VAR在图像质量和速度上超越现有扩散模型,并展示出良好的扩展性和零样本泛化能力。未来研究将聚焦于文本引导生成和视频生成等方向。
599 8
NeurIPS 2024最佳论文,扩散模型的创新替代:基于多尺度预测的视觉自回归架构
|
人工智能 计算机视觉
论文介绍:MDTv2——提升图像合成能力的掩码扩散变换器
【5月更文挑战第18天】MDTv2是掩码扩散变换器的升级版,旨在增强图像合成模型DPMs处理语义关系的能力。通过掩码操作和不对称扩散变换,MDTv2能学习图像的完整语义信息,提升学习效率和图像质量。MDTv2采用优化的网络结构和训练策略,如长快捷方式、密集输入和时间步适应损失权重,实现SOTA性能,FID分数达到1.58,训练速度比DiT快10倍。尽管计算成本高和泛化能力待验证,MDTv2为图像合成领域开辟了新方向。[链接: https://arxiv.org/abs/2303.14389]
518 1
|
计算机视觉
大连理工卢湖川团队TMI顶刊新作 | M^2SNet: 新颖多尺度模块 + 智能损失函数 = 通用图像分割SOTA网络
大连理工卢湖川团队TMI顶刊新作 | M^2SNet: 新颖多尺度模块 + 智能损失函数 = 通用图像分割SOTA网络
578 0
|
机器学习/深度学习 编解码 自然语言处理
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
一文综述 | 万字文总结,近几年都有哪些语义分割模型用了Transformer方法呢?
898 0
|
机器学习/深度学习 编解码 自然语言处理
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(一)
488 0
|
机器学习/深度学习 自然语言处理 算法
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
386 0
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(一)
|
机器学习/深度学习 数据采集 Oracle
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
DAFormer | 使用Transformer进行语义分割无监督域自适应的开篇之作(二)
416 0
|
机器学习/深度学习 编解码 自然语言处理
简单有效 | 详细解读Interflow用注意力机制将特征更好的融合(文末获取论文)
简单有效 | 详细解读Interflow用注意力机制将特征更好的融合(文末获取论文)
334 0
|
计算机视觉
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(二)
涨点技巧 | 旷视孙剑等人提出i-FPN:用于目标检测的隐式特征金字塔网络(文末获取论文)(二)
181 0