每日学术速递3.6

简介: 本文描述了一种使用与目标数据集不一定相关的多个源数据集进行语义分割的域自适应训练方法。我们通过整合来自多个源模型的预测对象概率,提出了一种软伪标签生成方法。每个源模型的预测基于源数据集和目标数据集之间的估计域相似性进行加权,以强调在与目标更相似的源上训练的模型的贡献,并生成合理的伪标签。

Subjects: cs.CV


1.Multi-Source Soft Pseudo-Label Learning with Domain Similarity-based Weighting for Semantic Segmentation


44a2ff2c932e31ef60c27005ec15d891.png


标题:用于语义分割的基于域相似性加权的多源软伪标签学习

作者:Shigemichi Matsuzaki, Hiroaki Masuzawa, Jun Miura

文章链接:https://arxiv.org/abs/2303.00979v1

项目代码:https://github.com/shigemichimatsuzaki/ms2pl

4913651b97d9abfa1b81e0c0829c4f7b.png

440ca1903b5244240e5711de66d43c81.png

8f0dad1b66fd37bebed799480877b2b7.png

摘要:

       本文描述了一种使用与目标数据集不一定相关的多个源数据集进行语义分割的域自适应训练方法。我们通过整合来自多个源模型的预测对象概率,提出了一种软伪标签生成方法。每个源模型的预测基于源数据集和目标数据集之间的估计域相似性进行加权,以强调在与目标更相似的源上训练的模型的贡献,并生成合理的伪标签。我们还提出了一种使用软伪标签的训练方法,考虑到它们的熵,以充分利用来自源数据集的信息,同时抑制可能被错误分类的像素的影响。实验表明,与我们之前的工作和另一种现有的多源域自适应方法相比,具有相当或更好的性能,并且适用于各种目标环境。

2.ESceme: Vision-and-Language Navigation with Episodic Scene Memory

891663b51483d3637359f28fe97a537d.png

标题:ESceme:具有情景场景记忆的视觉和语言导航

作者:Qi Zheng, Daqing Liu, Chaoyue Wang, Jing Zhang, Dadong Wang, DaCheng Tao

文章链接:https://arxiv.org/abs/2303.01032v1

项目代码:https://github.com/qizhust/esceme

0ce3837d905beb1c93ef4bafabfc78e4.png

ec13d9793555d0d82d9a502ddbeb9cfc.png

8a8cbeea3ba2f47b3b84d333d9b393c9.png

摘要:

       视觉和语言导航 (VLN) 模拟在真实场景中遵循自然语言导航指令的视觉代理。现有方法在新环境中的导航方面取得了巨大进步,例如波束搜索、预探索以及动态或分层历史编码。为了平衡泛化和效率,我们在导航时求助于记住除了正在进行的路线之外的访问场景。在这项工作中,我们为 VLN 引入了情景场景记忆 (ESceme) 机制,该机制可以在代理进入当前场景时唤醒其对过去访问的记忆。情景场景记忆允许代理设想下一个预测的更大画面。通过这种方式,智能体学会充分利用当前可用的信息,而不是仅仅适应所见的环境。我们通过在训练期间增强候选节点的观察特征来提供简单而有效的实现。我们验证了 ESceme 在三个 VLN 任务上的优势,包括短视距导航(R2R)、长视距导航(R4R)和视觉对话导航(CVDN),并实现了新的最先进的技术水平.

3.FeatAug-DETR: Enriching One-to-Many Matching for DETRs with Feature Augmentation

40ff4ee8463a6efafe79097d275655d4.png

标题:FeatAug-DETR:通过特征增强来丰富 DETR 的一对多匹配

作者:Rongyao Fang, Peng Gao, Aojun Zhou, Yingjie Cai, Si Liu, Jifeng Dai, Hongsheng Li ·

文章链接:https://arxiv.org/abs/2303.00477v1

项目代码:https://github.com/rongyaofang/feataug-detr

8223d372a7e9f3ab3cf0fb7db24ce311.png

6fe416db163cbbbf169179d226bce528.png

摘要:

       一对一匹配是类 DETR 对象检测框架中的关键设计。它使 DETR 能够执行端到端检测。但是,它也面临着缺乏正样本监督和收敛速度慢的挑战。最近的几项工作提出了一对多匹配机制来加速训练和提高检测性能。我们重新审视这些方法,并以增强对象查询的统一格式对它们进行建模。在本文中,我们提出了两种方法,从增强图像或图像特征的不同角度实现一对多匹配。第一种方法是通过数据增强进行一对多匹配(表示为 DataAug-DETR)。它对图像进行空间变换,并在同一训练批次中包含每个图像的多个增强版本。这种简单的增强策略已经实现了一对多匹配,并且令人惊讶地提高了 DETR 的性能。第二种方法是通过特征增强进行一对多匹配(表示为 FeatAug-DETR)。与DataAug-DETR不同的是,它增强了图像特征而不是原始图像,并且在同一批次中包含多个增强特征以实现一对多匹配。 FeatAug-DETR 显着加速 DETR 训练并提升检测性能,同时保持推理速度不变。我们进行了广泛的实验来评估所提出的方法对 DETR 变体的有效性,包括 DAB-DETR、Deformable-DETR 和 H-Deformable-DETR。在没有额外训练数据的情况下,FeatAug-DETR 将 Deformable-DETR 的训练收敛周期缩短至 24 个 epoch,并在以 Swin-L 为骨干的 COCO val2017 集上实现了 58.3 AP。

目录
相关文章
|
机器学习/深度学习 自然语言处理 算法
每日学术速递3.9
最近的视觉语言模型显示出令人印象深刻的多模态生成能力。但是,通常它们需要在海量数据集上训练大型模型。作为更具可扩展性的替代方案,我们引入了 Prismer,这是一种数据和参数高效的视觉语言模型,它利用了领域专家的集合。
142 0
每日学术速递3.9
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.1
本文介绍了一种名为 F²-NeRF (Fast-Free-NeRF) 的新型基于网格的 NeRF,用于新型视图合成,它支持任意输入摄像机轨迹,并且只需几分钟的训练时间。现有的基于网格的快速 NeRF 训练框架,如 Instant-NGP、Plenoxels、DVGO 或 TensoRF,主要针对有界场景设计,并依靠空间扭曲来处理无界场景。现有的两种广泛使用的空间扭曲方法仅针对前向轨迹或 360 度以对象为中心的轨迹而设计,无法处理任意轨迹。
141 0
|
机器学习/深度学习 存储 编解码
每日学术速递2.20
将强大的生成去噪扩散模型 (DDM) 应用于图像语义编辑等下游任务通常需要微调预训练 DDM 或学习辅助编辑网络。在这项工作中,我们通过仅通过冻结 DDM 优化去噪轨迹,在各种应用程序设置上实现了 SOTA 语义控制性能。
95 0
|
机器学习/深度学习 自然语言处理 测试技术
每日学术速递4.25
场景理解的一个长期目标是获得可解释和可编辑的表示,这些表示可以直接从原始单目 RGB-D 视频构建,而不需要专门的硬件设置或先验。在存在多个移动和/或变形物体的情况下,该问题更具挑战性。传统方法通过混合简化、场景先验、预训练模板或已知变形模型来处理设置。
171 0
|
机器学习/深度学习 编解码 人工智能
每日学术速递5.5
我们介绍了多尺度多视图视觉变换器 (MMViT),它将多尺度特征图和多视图编码引入到变换器模型中。我们的模型对输入信号的不同视图进行编码,并构建多个通道分辨率特征阶段
146 0
|
机器学习/深度学习 编解码 自然语言处理
每日学术速递4.5
无论是通过从头到尾以固定分辨率处理视频,还是结合池化和缩小策略,现有的视频转换器都可以处理整个网络中的整个视频内容,而无需专门处理大部分冗余信息。在本文中,我们提出了一种 Supertoken Video Transformer (SVT),它结合了语义池模块 (SPM),根据视觉转换器的语义沿着视觉转换器的深度聚合潜在表示,从而减少视频输入中固有的冗余。
85 0
|
机器学习/深度学习 自然语言处理 数据挖掘
每日学术速递3.2
基于点击的交互式分割(IS)旨在提取用户交互下的目标对象。对于这项任务,当前大多数基于深度学习 (DL) 的方法主要遵循语义分割的一般流程。尽管取得了令人鼓舞的性能,但它们并没有完全明确地利用和传播点击信息,不可避免地导致不令人满意的分割结果,即使在点击点也是如此。
104 0
|
机器学习/深度学习 自然语言处理 定位技术
每日学术速递3.1
文本引导的扩散模型,如 DALLE-2、IMAGEN 和 Stable Diffusion,只要给出描述所需图像内容的简短文本提示,就能够有效地生成无穷无尽的图像。在许多情况下,图像的质量也非常高。然而,这些模型通常难以组合包含多个关键对象的场景,例如具有指定位置关系的角色。
75 0
|
机器人
每日学术速递4.27
我们研究如何使用 Transformers 构建和训练用于机器人决策的空间表示。特别是,对于在各种环境中运行的机器人,我们必须能够快速训练或微调机器人感觉运动策略,这些策略对杂波具有鲁棒性、数据效率高,并且可以很好地泛化到不同的环境。
108 0
|
机器学习/深度学习 自然语言处理 物联网
每日学术速递5.1
大型语言模型 (LLM) 在各种开放式任务中展示了令人印象深刻的零样本能力,而最近的研究还探索了使用 LLM 进行多模态生成。
134 0