CVPR2021快报!目标检测和语义分割论文分类汇总 | 源码 |

简介: 在语义分割中,对广泛使用的域自适应基准数据集进行了广泛的实验和消融研究。通过对标记的Synscapes和GTA5数据集以及未标记的Cityscapes训练集进行训练,我们提出的方法在Cityscapes的验证集上达到了59.0%的mIoU。它明显优于所有以前的最新的单源和多源无监督域自适应方法。

CVPR 2021 放榜了,你中了几篇?


今年CVPR 共有7015篇有效投稿,其中进入Decision Making阶段的共有约5900篇,最终有1663篇突出重围被接收,录用率大概为23.7%(1663/7015)。


本周开始我将为大家持续分享最新的CVPR2021论文解读,本篇文章收录了目标检测和语义分割的最新论文合集,以最快的形式发送给需要阅读的迈微社友,每篇文章会给出论文链接以及作者开源的代码。


目标检测篇


1、Semantic Relation Reasoning for Shot-Stable Few-Shot Object Detection

paper链接:https://arxiv.org/abs/2103.01903由于真实世界数据固有的长尾分布,few-shot目标检测是一个重要而持久的问题。它的性能很大程度上受到新类数据稀缺的影响。但是无论数据的可用性如何,新类和基类之间的语义关系都是不变的。这篇paper研究了如何利用这种语义关系和视觉信息,并将显式关系推理引入到新目标检测的学习中。


640.png

640.png


2、Instance Localization for Self-supervised Detection Pretraining(香港大学,微软亚洲研究院)


paper链接:https://arxiv.org/pdf/2102.08318.pdf


以往对自监督学习的研究在图像分类方面取得了相当大的进展,但在目标检测方面往往存在transfer性能下降的问题。本文的目的是提出一种专门用于目标检测的自监督预训练模型。


640.png

640.png


3、Towards Open World Object Detection

人类有识别环境中未知物体实例的本能。人类有一种自然的本能来识别未知环境中的物体实例。这促使作者提出了一个新的计算机视觉问题,称为“开放世界目标检测”,模型的任务是:


1)在没有明确监督的情况下,将尚未引入的目标识别为“未知”,


2)逐步学习这些已识别的未知类别,而不忘记以前学习的类,当相应的标签逐渐收到时。本文提出了一种基于对比聚类和基于能量的未知识别的开放世界目标检测算法。


640.png


640.png


4、Positive-Unlabeled Data Purification in the Wild for Object Detection


暂未放出


5、General Instance Distillation for Object Detection


paper链接https://arxiv.org/pdf/2103.02340.pdf近年来,知识蒸馏被证明是一种有效的模型压缩方法。这种方法可以使轻量级的学生模型从较大的教师模型中获取知识。然而,以往的提取检测方法对不同检测框架的泛化能力较弱,严重依赖于GT,忽略了实例间有价值的关系信息。因此,论文提出了一种新的基于区分性实例的提取方法,即一般实例提取(GID)。该方法包含了通用实例选择模块(GISM),充分利用了基于特征、基于关系和基于响应的知识进行提取。


640.png


6、UP-DETR: Unsupervised Pre-training for Object Detection with Transformers



transformer+无监督的一篇paper。


640.png


640.png


7、Depth from Camera Motion and Object Detection


paper链接https://arxiv.org/abs/2103.01468


本文讨论了在给定摄像机运动测量值(如机器人运动学或车辆里程计)的情况下,学习估计被测物体深度的问题。论文通过1)设计一个递归神经网络(DBox),使用box和未校准摄像机运动的广义表示来估计物体的深度;2)通过运动和检测数据集(ODMD)引入物体深度。



640.png


640.png

640.png


8、There is More than Meets the Eye: Self-Supervised Multi-Object Detection and Tracking with Sound by Distilling Multimodal Knowledge


paper链接:https://arxiv.org/abs/2103.01353


物体固有的声音属性可以为学习丰富的物体检测和跟踪表示提供有价值的线索。此外,可以利用视频中视听事件的同时出现,通过单独监测环境中的声音,在图像场上定位对象。到目前为止,这只适用于摄像机静止和单目标检测的场景。此外,这些方法的鲁棒性受到限制,因为它们主要依赖于对光照和天气变化非常敏感的RGB图像。在这项工作中,作者提出了一个新颖的自监督MM-stewartnet框架,该框架由多个教师组成,他们利用不同的模式,包括RGB、深度和热图像,同时利用互补线索并将知识提取到单一音频学生网络中。


640.png

640.png


9、Dogfight: Detecting Drones from Drone Videos


暂未放出


10、3DIoUMatch: Leveraging IoU Predictionfor Semi-Supervised 3D Object Detection


paper链接:https://arxiv.org/pdf/2012.04355.pdf

三维目标检测是一项重要而艰巨的任务,它严重依赖于难以获得的三维标注。为了减少所需的监督量,论文提出了一种新的半监督三维物体检测方法。采用VoteNet(一种流行的基于点云的目标检测器)作为主干,利用一个教师学生互学习网络框架,以伪标签的形式将信息从标注训练集传播到无标注训练集。


640.png


640.png


11、Categorical Depth Distribution Network for Monocular 3D Object Detection


paper链接:https://arxiv.org/abs/2103.01100

单目三维目标检测是自动驾驶领域的一个关键问题,与典型的多传感器系统相比,它提供了一种结构简单的解决方案。单目三维检测的主要挑战在于准确预测目标深度,由于缺乏直接的距离测量,必须从目标和场景线索中推断出目标深度。许多方法试图直接估计深度来辅助三维检测,但由于深度不准确,性能有限。论文提出的分类深度分布网络(Categorical Depth Distribution Network,CaDDN)利用每个像素的预测分类深度分布,将丰富的上下文特征信息投射到三维空间中适当的深度区间。然后,使用计算效率高的鸟瞰投影和单级检测器来生成最终的输出边界框。作者将CaDDN设计为一种完全可微的端到端方法,用于联合深度估计和目标检测。


640.png

640.png


640.png


12、Multiple Instance Active Learning for Object Detection(用于对象检测的多实例主动学习


640.png


640.png


13Re-labeling ImageNet: from Single to Multi-Labels, from Global to Localized Labels(重新标记ImageNet:从单标签到多标签,从全局标签到本地标签)


单标签注释和有效多标签图像之间的不匹配在采用随机作物的训练设置中同样(甚至更多)存在问题。使用单标签注释,图像的随机裁剪可能包含与地面真实情况完全不同的对象,从而在训练期间引入了嘈杂甚至不正确的监控。因此,用多标签重新标记了ImageNet训练集。作者通过让经过额外数据源训练的强大图像分类器生成多个标签,来解决注释成本的障碍。为了利用附加的特定于位置的监督信号,在最终合并层之前利用了逐像素的多标签预测。


640.png

640.png


14Rethinking Channel Dimensions for Efficient Model Design(重新考虑通道尺寸以进行有效的模型设计)


本文解决了网络中的代表性瓶颈,并提出了一组可显着提高模型性能的设计原则。作者认为,代表性的瓶颈可能会出现在由常规设计设计的网络中,并导致模型性能下降。为了研究代表性瓶颈,他们研究了由上万个随机网络生成的特征的矩阵等级。作者将进一步研究整个层的通道配置,以设计更准确的网络体系结构。基于调查,作者提出了简单而有效的设计原则来减轻代表性瓶颈。遵循该原则对基准网络进行的细微更改将导致ImageNet分类的显着性能改进。此外,COCO对象检测结果和多个数据集上的转移学习结果还为减少网络的代表性瓶颈与提高性能之间的链接提供了其他备份。


640.png


15、OPANAS: One-Shot Path Aggregation Network Architecture Search for Object(一键式路径聚合网络体系结构搜索对象)



640.png


最近,神经体系结构搜索(NAS)已被用于设计特征金字塔网络(FPN),并在视觉对象检测方面取得了可喜的成果。在成功的鼓舞下,我们提出了一种新颖的单发路径聚合网络体系结构搜索(OPANAS)算法,该算法可显着提高搜索效率和检测精度。


具体来说,我们首先介绍了六个异构信息路径来构建我们的搜索空间,即自上而下,自下而上,融合拆分,比例均衡,跳过连接和无。


其次,我们提出了一种新颖的FPN搜索空间,其中每个FPN候选对象都由紧密连接的有向无环图表示(每个节点是一个特征金字塔,每个边都是六个异构信息路径之一)。


第三,我们提出了一种有效的单次搜索方法,以找到最佳的路径聚合体系结构,即,我们首先训练一个超级网络,然后使用进化算法找到最佳的候选者。


实验结果证明了所提出的OPANAS对物体检测的功效:


(1)OPANAS比最先进的方法(例如NAS-FPN和Auto-FPN)效率更高,但搜索成本却要低得多(例如,在MS-COCO上只有4个GPU天);


(2)OPANAS发现的最佳架构显着地改善了包括RetinaNet,Faster R-CNN和Cascade R-CNN在内的主流检测器,与FPN同类检测器相比,提高了2.3%至3.2%的mAP。


(3)一种新的,最先进的精度与速度的权衡(在7.6 FPS时,mAP为52.2%),而培训费用却比同类同类产品要小。代码将在发布。

640.png

640.png


16、MeGA-CDA: Memory Guided Attention for Category-Aware Unsupervised Domain Adaptive Object Detection(用于类别识别无监督域自适应对象检测)




640.png


用于无监督域自适应对象检测的现有方法通过对抗训练来执行特征对准。尽管这些方法在性能上实现了合理的改进,但它们通常执行与类别无关的域对齐,从而导致特征的负传递。为了克服这个问题,在这项工作中,我们尝试通过提出针对类别感知的域自适应的内存引导注意(MeGA-CDA),将类别信息纳入域自适应过程。所提出的方法包括采用按类别的鉴别器以确保用于学习领域不变的鉴别特征的基于类别的特征对齐。但是,由于类别信息不适用于目标样本,因此我们建议生成内存导向的类别特定注意图,然后将其用于将特征适当地路由到相应的类别识别符。在几种基准数据集上对提出的方法进行了评估,结果表明该方法优于现有方法。


这篇文章的解读分析将在本周安排分享。

640.png


640.png


语义/实例全景/分割篇


1、PointFlow: Flowing Semantics Through Points for Aerial Image Segmentation

暂未开放


相似论文PointFlow: 3D Point Cloud Generation with Continuous Normalizing Flows



640.png


2、Few-Shot Segmentation Without Meta-Learning: A Good Transductive Inference Is All You Need?


Few-Shot分割方法最近引起了人们的极大兴趣,流行的元学习范式在文献中占据了主导地位。作者介绍了一种转导推断,它通过优化包含三个互补项的新损失来利用任务中未标记像素的统计信息:(i)标记像素的标准交叉熵;(ii)在未标记的查询像素上后验的熵;(iii)基于预测前景区域的比例的全局KL散度正则化器。


本文推理使用提取特征的简单线性分类器,具有与归纳推理相当的计算量,可用于任何基础训练。在基类上使用标准的交叉熵训练,作者的推论在众所周知的几次分割基准上产生了极具竞争力的表现1。在PASCAL5 i上,与5幅镜头方案中性能最佳的最新方法相比,它带来了5%的改进,而在1幅镜头设置中则达到了同等水平。更令人惊讶的是,这种差距随着支持样本数量的增加而扩大,在10次注入情况下达到6%。此外,本文引入了一个更现实的域偏移设置,其中基类和新颖类是从不同的数据集中提取的。在这种情况下,发现该方法可以达到最佳性能。


640.png

640.png


3、4D Panoptic LiDAR Segmentation


时态语义场景理解是自动驾驶车辆或机器人在动态环境中工作的关键。本文提出了4D全景激光雷达分割来分配一个语义类和一个时间上一致的实例ID到一个3D点序列。



640.png



640.png



4、Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset, Benchmarks and Challenges



640.png


640.png


5、PLOP: Learning without Forgetting for Continual Semantic Segmentation


paper链接:https://arxiv.org/abs/2011.11390


目前,深度学习方法广泛应用于处理语义分割等需要大量数据集和强大计算能力的计算机视觉任务。语义连续学习(CSS)是一个新兴的趋势,它通过不断地添加新的语义来更新旧的模型语义。本文提出了一种多尺度池蒸馏方案localpod,该方案在特征级保持长、短距离的空间关系。此外,还设计了一个基于熵的伪标号来处理由旧模型预测的背景类,以避免旧类的灾难性遗忘。该方法方法称为PLOP,在现有CSS场景中,以及在新提出的具有挑战性的基准中,大大超过了最先进的方法。



640.png

640.png


6、End-to-End Video Instance Segmentation with Transformers


使用Transformers进行视频实例分割~


视频实例分割(VIS)是一项需要同时对视频中感兴趣的对象实例进行分类,分割和跟踪的任务。最近的方法通常开发复杂的管道来解决此任务。在这里,作者提出了一个基于Transformers的新视频实例分割框架,称为VisTR,该框架将VIS任务视为直接的端到端并行序列解码/预测问题。给定包含多个图像帧的视频剪辑作为输入,VisTR直接按顺序输出视频中每个实例的遮罩序列。


核心是一种新的,有效的实例序列匹配和分段策略,该策略在整个序列级别上对实例进行监督和分段。VisTR从相似性学习的同一角度构建实例分割和跟踪,从而大大简化了总体流程,并且与现有方法大不相同。


在没有花哨的情况下,VisTR可以在所有现有VIS模型中实现最高速度,并且可以在YouTubeVIS数据集上使用单一模型的方法中获得最佳效果。第一次,作者展示了一个基于Transformers的更简单,更快的视频实例分割框架,从而获得了竞争性的准确性。作者希望VisTR能够激励未来的研究,以开展更多的视频理解任务

640.png


640.png


7、Semi-supervised Domain Adaptation based on Dual-level Domain Mixing for Semantic Segmentation(基于双层域混合的半监督域自适应语义分割)


640.png


尽管在许多任务中都取得了巨大成功,但基于数据驱动的方法在应用于看不见的图像域时泛化能力很差,并且需要昂贵的注释成本,尤其是对于密集像素预测任务(例如语义分割)而言。最近,已经研究了来自大量合成数据的无监督域自适应(UDA)和具有少量标记数据的半监督学习(SSL)来缓解此问题。但是,与受监督的同行相比,绩效仍然存在很大差距。


我们将重点放在半监督域自适应(SSDA)的更实际的设置上,其中一小部分标记的目标数据和大量标记的源数据都可用。为了解决SSDA的任务,提出了一种基于双层域混合的新型框架。


640.png


拟议的框架包括三个阶段:


  • 首先,提出了两种数据混合方法来分别减小区域级和样本级的域间隙。我们可以分别从整体视图和局部视图的双层混合数据中获得两个互补的领域混合教师。


  • 然后,通过从这两位老师那里提炼知识来学习学生模型。


  • 最后,以自训练的方式生成未标记数据的伪标签,以进行另外几轮教师培训。


大量的实验结果证明了我们提出的框架在合成到真实语义分割基准测试中的有效性。


8、Learning Statistical Texture for Semantic Segmentation(学习用于语义分割的统计纹理)



640.png


现有的语义分割工作主要集中在利用CNN来学习具有高级语义特征的上下文信息。为了保持精确的边界,将低级纹理特征直接跳过连接到更深的层中。尽管如此,纹理特征不仅与局部结构有关,而且还包括输入图像的全局统计知识。在本文中,作者充分利用了低级纹理特征的优势,并提出了一种用于语义分割的新型统计纹理学习网络(STLNet)。 STLNet首次分析了底层信息的分布,并有效地将其用于任务。


具体而言,一种新颖的量化和计数算子(QCO)被设计为以统计方式描述纹理信息。基于QCO引入了两个模块:(1)纹理增强模块(TEM),用于捕获与纹理有关的信息并增强纹理细节; (2)金字塔纹理特征提取模块(PTFEM),可有效地从多个尺度上提取统计纹理特征。


通过广泛的实验,我们证明了所提出的STLNet在三个语义分割基准上达到了最先进的性能:Cityscapes,PASCAL Context和ADE20K。


640.png

640.png


9、Multi-Source Domain Adaptation with Collaborative Learning for Semantic Segmentation(多源领域自适应与协作学习的语义分割)



640.png

多源无监督域自适应(MSDA)旨在将在多个标记的源域上训练的模型适配为一个未标记的目标域。在本文中,我们提出了一种基于协作学习的语义分割新的多源域自适应框架。


首先,引入一种简单的图像转换方法来对齐像素值分布,以在一定程度上减小源域和目标域之间的间隙。


然后,为了充分利用跨源域的基本语义信息,我们提出了一种用于域自适应的协作学习方法,而无需查看目标域中的任何数据。另外,类似于无监督域适应的设置,未标记的目标域数据被利用来进一步提高域适应的性能。这是通过用集成模型在线生成的伪标签另外约束多个适应模型的输出来实现的。


在语义分割中,对广泛使用的域自适应基准数据集进行了广泛的实验和消融研究。通过对标记的Synscapes和GTA5数据集以及未标记的Cityscapes训练集进行训练,我们提出的方法在Cityscapes的验证集上达到了59.0%的mIoU。它明显优于所有以前的最新的单源和多源无监督域自适应方法。


640.png


640.png


本文仅做学术分享,如有侵权,请联系删文。

相关文章
|
6月前
|
机器学习/深度学习 缓存 算法
【论文速递】CVPR2020 - CRNet:用于小样本分割的交叉参考网络
【论文速递】CVPR2020 - CRNet:用于小样本分割的交叉参考网络
|
6月前
|
机器学习/深度学习 编解码 定位技术
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
【论文速递】ECCV2022 - 密集高斯过程的小样本语义分割
|
6月前
【论文速递】ICLR2018 - 用于小样本语义分割的条件网络
【论文速递】ICLR2018 - 用于小样本语义分割的条件网络
80 0
|
6月前
|
机器学习/深度学习 自动驾驶 机器人
【论文速递】CVPR2022 - 泛化的小样本语义分割
【论文速递】CVPR2022 - 泛化的小样本语义分割
|
6月前
|
存储 算法 自动驾驶
【论文速递】CVPR2022 - 用于语义分割的跨图像关系知识蒸馏
【论文速递】CVPR2022 - 用于语义分割的跨图像关系知识蒸馏
|
6月前
|
机器学习/深度学习 计算机视觉
【论文速递】CVPR2022 - 学习 什么不能分割:小样本分割的新视角
【论文速递】CVPR2022 - 学习 什么不能分割:小样本分割的新视角
|
6月前
|
机器学习/深度学习 计算机视觉
【论文速递】一种用于目标检测的结构知识蒸馏
【论文速递】一种用于目标检测的结构知识蒸馏
|
6月前
|
机器学习/深度学习 计算机视觉
【论文速递】ICCV2019 - 基于特征加权和增强的小样本分割
【论文速递】ICCV2019 - 基于特征加权和增强的小样本分割
54 0
|
6月前
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
|
6月前
|
机器学习/深度学习 数据挖掘 网络安全
【论文速递】CVPR2022 - 用于半监督物体检测的尺度等效蒸馏
【论文速递】CVPR2022 - 用于半监督物体检测的尺度等效蒸馏
下一篇
无影云桌面