每日学术速递2.6

简介: 小样本的类增量学习(FSCIL)一直是一个具有挑战性的问题,因为在新的环节中,每个新的类只有少数训练样本可以获得。对骨干进行微调或调整之前训练的分类器原型将不可避免地导致旧类的特征和分类器之间的错位,这就是众所周知的灾难性遗忘问题。

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.AI


1.Neural Collapse Inspired Feature-Classifier Alignment for Few-Shot Class-Incremental Learning(ICLR 2023)


157cbe2540ee2f37b0f7bce85e428622.png


标题:神经崩溃启发下的特征分类器排列,用于小样本的分类增量学习

作者:Yibo Yang, Haobo Yuan, Xiangtai Li, Zhouchen Lin, Philip Torr, DaCheng Tao

文章链接:https://openreview.net/forum?id=y5W8tpojhtJ

项目代码:https://github.com/NeuralCollapseApplications/FSCIL

08345c29017a35d007ddad8265fd6506.png

69cb3c513a3c7e931658a28c1bdb07c3.png

摘要:

       小样本的类增量学习(FSCIL)一直是一个具有挑战性的问题,因为在新的环节中,每个新的类只有少数训练样本可以获得。对骨干进行微调或调整之前训练的分类器原型将不可避免地导致旧类的特征和分类器之间的错位,这就是众所周知的灾难性遗忘问题。在本文中,我们在FSCIL中处理了这种错位困境,其灵感来自于最近发现的名为神经塌陷的现象,它揭示了同一类别的最后一层特征会塌陷成一个顶点,所有类别的顶点都与分类器原型对齐,形成一个简单的等边紧缩框架(ETF)。由于Fisher Discriminant Ratio的最大化,它对应于分类的最佳几何结构。我们为FSCIL提出了一个受神经塌陷启发的框架。一组分类器原型被预先分配为整个标签空间的单叉ETF,包括基础会话和所有增量会话。在训练过程中,分类器原型是不可学习的,我们采用了一个新的损失函数,将特征驱动到其相应的原型中。理论分析表明,我们的方法保持了神经塌陷的最优性,并且不会以递增的方式破坏特征-分类器的一致性。在miniImageNet、CUB-200和CIFAR-100数据集上的实验表明,我们提出的框架优于最先进的性能。我们的代码将公开提供。

Few-shot class-incremental learning (FSCIL) has been a challenging problem as only a few training samples are accessible for each novel class in the new sessions. Finetuning the backbone or adjusting the classifier prototypes trained in the prior sessions would inevitably cause a misalignment between the feature and classifier of old classes, which explains the well-known catastrophic forgetting problem. In this paper, we deal with this misalignment dilemma in FSCIL inspired by the recently discovered phenomenon named neural collapse, which reveals that the last-layer features of the same class will collapse into a vertex, and the vertices of all classes are aligned with the classifier prototypes, which are formed as a simplex equiangular tight frame (ETF). It corresponds to an optimal geometric structure for classification due to the maximized Fisher Discriminant Ratio. We propose a neural collapse inspired framework for FSCIL. A group of classifier prototypes are pre-assigned as a simplex ETF for the whole label space, including the base session and all the incremental sessions. During training, the classifier prototypes are not learnable, and we adopt a novel loss function that drives the features into their corresponding prototypes. Theoretical analysis shows that our method holds the neural collapse optimality and does not break the feature-classifier alignment in an incremental fashion. Experiments on the miniImageNet, CUB-200, and CIFAR-100 datasets demonstrate that our proposed framework outperforms the state-of-the-art performances. Our code will be publicly available.

2.Visual Imitation Learning with Patch Rewards

4d5b949ff7986f3456804574672685e7.png


标题:带补丁奖励的视觉模仿学习

作者:Minghuan Liu, Tairan He, Weinan Zhang, Shuicheng Yan, Zhongwen Xu

文章链接:https://arxiv.org/abs/2302.00965v1

项目代码:https://github.com/sail-sg/patchail

11a9c39a2ab9e456b7ad24dad4da7951.png

c18e8a5600ff4f1104a50ed1a35d9465.png

d7befc550bd8f25ab098ae4022bfd4d6.png

摘要:

       视觉模仿学习使强化学习代理能够从专家的视觉演示中学习行为,如视频或图像序列,而没有明确的、明确的奖励。以前的研究要么采用监督学习技术,要么从像素中诱导出简单粗暴的标度奖励,忽视了图像演示中包含的密集信息。在这项工作中,我们提议测量图像样本的各个局部区域的专业性,或称为textit{patches},并相应地恢复多维textit{patch reward}。补丁奖励是一个更精确的奖励表征,可以作为一个细粒度的专业知识测量和视觉可解释性工具。具体来说,我们提出了带有补丁奖励的对抗性模仿学习(PatchAIL),它采用了基于补丁的判别器来测量来自给定图像的不同局部的专业知识并提供补丁奖励。基于斑块的知识也被用来规范聚合的奖励并稳定训练。我们在DeepMind控制套件和Atari任务上评估了我们的方法。实验结果表明,PatchAIL优于基线方法,为视觉演示提供了有价值的解释。

Visual imitation learning enables reinforcement learning agents to learn to behave from expert visual demonstrations such as videos or image sequences, without explicit, well-defined rewards. Previous research either adopted supervised learning techniques or induce simple and coarse scalar rewards from pixels, neglecting the dense information contained in the image demonstrations. In this work, we propose to measure the expertise of various local regions of image samples, or called \textit{patches}, and recover multi-dimensional \textit{patch rewards} accordingly. Patch reward is a more precise rewarding characterization that serves as a fine-grained expertise measurement and visual explainability tool. Specifically, we present Adversarial Imitation Learning with Patch Rewards (PatchAIL), which employs a patch-based discriminator to measure the expertise of different local parts from given images and provide patch rewards. The patch-based knowledge is also used to regularize the aggregated reward and stabilize the training. We evaluate our method on DeepMind Control Suite and Atari tasks. The experiment results have demonstrated that PatchAIL outperforms baseline methods and provides valuable interpretations for visual demonstrations.

Subjects: cs.CV


1.No One Left Behind: Real-World Federated Class-Incremental Learning

09f80ecbdf3795748319f8cbaabbf99b.png


标题:不落人后:现实世界中的联合班级-增量学习

作者: Dong-Guw Lee, Myung-Hwan Jeon, Younggun Cho, Ayoung Kim

文章链接:https://arxiv.org/abs/2302.00965v1

项目代码:https://github.com/jiahuadong/lga

a14351db39f7eb93917e2f6a443d63d4.png

4f40a5f6a3c85069ccb5d0bc34dc117a.png

摘要:

       联合学习(FL)是一个热门的协作训练框架,通过聚合分散的本地客户端的模型参数。然而,大多数现有的模型都不合理地假定FL框架的数据类别是事先已知的。当本地客户在存储旧类别的有限内存中连续收到新类别时,这使得全局模型在旧类别上的识别性能显著下降(即灾难性遗忘)。此外,一些新的本地客户收集其他客户未曾见过的新类别,可能会被不定期地引入FL训练,这进一步加剧了对旧类别的灾难性遗忘。为了解决上述问题,我们提出了一个新的局部-全局反遗忘(LGA)模型来解决局部和全局对旧类别的灾难性遗忘,这是FL领域中探索全局类增量模型的一项开创性工作。具体来说,考虑到解决局部客户端的类不平衡以克服局部遗忘,我们开发了一个类别平衡的梯度适应性补偿损失和一个类别梯度诱导的语义蒸馏损失。它们可以平衡难以遗忘和容易遗忘的旧类别的异质性遗忘速度,同时保证不同增量任务中内在的类别关系的一致性。此外,还设计了一个代理服务器来解决不同客户之间的非IID类不平衡引起的全局遗忘问题。它在保护隐私的前提下,通过原型梯度通信从本地客户端收集新类别的扰动原型图像,并通过自监督的原型增强来选择最佳的旧全局模型,提高本地蒸馏增益。在代表性数据集上的实验验证了我们的模型相对于其他比较方法的优越性能。

Federated learning (FL) is a hot collaborative training framework via aggregating model parameters of decentralized local clients. However, most existing models unreasonably assume that data categories of FL framework are known and fxed in advance. It renders the global model to signifcantly degrade recognition performance on old categories (i.e., catastrophic forgetting), when local clients receive new categories consecutively under limited memory of storing old categories. Moreover, some new local clients that collect novel categories unseen by other clients may be introduced to the FL training irregularly, which further exacerbates the catastrophic forgetting on old categories. To tackle the above issues, we propose a novel Local-Global Anti-forgetting (LGA) model to address local and global catastrophic forgetting on old categories, which is a pioneering work to explore a global class-incremental model in the FL feld. Specifcally, considering tackling class imbalance of local client to surmount local forgetting, we develop a category-balanced gradient-adaptive compensation loss and a category gradient-induced semantic distillation loss. They can balance heterogeneous forgetting speeds of hard-to-forget and easy-to-forget old categories, while ensure intrinsic class relations consistency within different incremental tasks. Moreover, a proxy server is designed to tackle global forgetting caused by Non-IID class imbalance between different clients. It collects perturbed prototype images of new categories from local clients via prototype gradient communication under privacy preservation, and augments them via self-supervised prototype augmentation to choose the best old global model and improve local distillation gain. Experiments on representative datasets verify superior performance of our model against other comparison methods.

目录
相关文章
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.3
最近在语言引导图像生成领域取得的突破取得了令人瞩目的成就,能够根据用户指令创建高质量和多样化的图像。尽管合成性能令人着迷,但当前图像生成模型的一个重大限制是它们在图像中生成连贯文本的能力不足,特别是对于像汉字这样的复杂字形结构。为了解决这个问题,我们引入了 GlyphDraw,这是一个通用的学习框架,旨在赋予图像生成模型生成嵌入连贯文本的图像的能力。据我们所知,这是图像合成领域第一个解决汉字生成问题的工作。
150 0
每日学术速递4.3
|
机器学习/深度学习 自然语言处理 算法
每日学术速递5.6
大型语言模型的最新进展引发了思维链中的推理,使模型能够以类似人类的方式分解问题。虽然这种范式提高了语言模型中的多步推理能力,但它受到单峰性的限制,主要应用于问答任务
111 0
|
机器学习/深度学习 自然语言处理 大数据
每日学术速递3.7
由 Hinton 等人介绍。2012 年,dropout 作为防止神经网络过度拟合的正则化项经受住了时间的考验。在这项研究中,我们证明了在训练开始时使用 dropout 也可以减轻欠拟合。在早期阶段,我们发现 dropout 减少了小批量梯度的方向方差,并有助于将小批量梯度与整个数据集的梯度对齐。这有助于抵消 SGD 的随机性并限制个别批次对模型训练的影响。
113 0
|
机器学习/深度学习 自然语言处理 计算机视觉
每日学术速递4.7
我们引入了一种新颖的框架,可以毫不费力地训练深度立体网络,无需任何基本事实。通过利用最先进的神经渲染解决方案,我们从使用单个手持相机收集的图像序列生成立体训练数据。
134 0
|
机器学习/深度学习 存储 自然语言处理
每日学术速递4.17
扩散模型已被证明在生成高质量图像方面非常有效。然而,使大型预训练扩散模型适应新领域仍然是一个开放的挑战,这对于实际应用至关重要。本文提出了 DiffFit,这是一种参数高效策略,用于微调大型预训练扩散模型,从而能够快速适应新领域。DiffFit 非常简单,仅微调特定层中的偏差项和新添加的缩放因子
138 0
|
自然语言处理 计算机视觉
每日学术速递3.6
本文描述了一种使用与目标数据集不一定相关的多个源数据集进行语义分割的域自适应训练方法。我们通过整合来自多个源模型的预测对象概率,提出了一种软伪标签生成方法。每个源模型的预测基于源数据集和目标数据集之间的估计域相似性进行加权,以强调在与目标更相似的源上训练的模型的贡献,并生成合理的伪标签。
116 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递4.4
我们对 Embodied AI 的预训练视觉表示 (PVR) 或视觉“基础模型”进行了最大、最全面的实证研究。首先,我们策划了 CortexBench,它由 17 项不同的任务组成,涵盖运动、导航、灵巧和移动操作。接下来,我们系统地评估现有的 PVR,发现没有一个具有普遍优势。为了研究预训练数据规模和多样性的影响
115 0
|
机器学习/深度学习 传感器 自然语言处理
每日学术速递4.23
神经辐射场 (NeRF) 能够以前所未有的视觉质量实现新颖的视图合成。然而,为了渲染逼真的图像,NeRF 需要对每个像素进行数百次深度多层感知器 (MLP) 评估。这是非常昂贵的,并且使实时渲染变得不可行,即使在强大的现代 GPU 上也是如此。
128 0
|
机器学习/深度学习 人工智能 自然语言处理
每日学术速递3.16
本文提出了一个统一的扩散框架(称为 UniDiffuser),以在一个模型中拟合与一组多模态数据相关的所有分布。我们的关键见解是——学习边缘分布、条件分布和联合分布的扩散模型可以统一为预测扰动数据中的噪声,其中扰动水平(即时间步长)对于不同的模式可能不同。
161 0
|
机器学习/深度学习 自然语言处理 安全
每日学术速递2.24
在本技术报告中,我们介绍了百度 KDD 杯 2022 空间动态风电功率预测挑战赛的解决方案。风能是一种快速增长的清洁能源。准确的风电功率预测对于电网稳定和供应安全至关重要。为此,主办方提供了包含134台风电机组历史数据的风电数据集,并发起百度KDD Cup 2022,以检验当前风电预测方法的局限性。
179 0
下一篇
DataWorks