增量学习中Task incremental、Domain incremental、Class incremental 三种学习模式的概念及代表性数据集?

简介: 本文介绍了增量学习中的三种主要模式:任务增量学习(Task-incremental)、域增量学习(Domain-incremental)和类别增量学习(Class-incremental),它们分别关注任务序列、数据分布变化和类别更新对学习器性能的影响,并列举了每种模式下的代表性数据集。

1 概念

在持续学习领域,Task incremental、Domain incremental、Class incremental 是三种主要的学习模式,它们分别关注不同类型的任务序列和数据分布变化。
在这里插入图片描述

1.1 Task Incremental Learning (Task-incremental)

任务增量学习,也称为任务增量式学习,是指在这种学习模式下,学习器依次面对不同的任务,每个任务有自己独特的类别集合。在推理时,学习器需要能够识别所有曾经学习过的任务。这种学习模式的挑战在于,学习新任务时可能会对旧任务的知识造成灾难性遗忘。代表性的数据集包括Split MNIST、Split CIFAR-10、Split CIFAR-100。

  • Split MNIST:MNIST数据集被分成多个任务,每个任务包含不同的数字。例如,第一任务为0-1,第二任务为2-3,依此类推。

  • Split CIFAR-10:CIFAR-10数据集被分为多个任务,每个任务包含不同的类别。例如,第一任务为飞机和汽车,第二任务为鸟和猫,依此类推。

  • Split CIFAR-100:CIFAR-100数据集被分为多个任务,每个任务包含不同的类别。例如,前20类作为第一任务,接下来的20类作为第二任务,依此类推。

1.2 Domain Incremental Learning (Domain-incremental)

域增量学习,又称为领域增量学习,是指学习器在面对一系列任务时,每个任务的数据输入分布(domain)可能不同,但任务的类别集合保持一致。这种学习模式模拟了现实世界中数据分布随时间变化的情况。领域增量学习的挑战在于如何适应新数据分布的同时,保持对旧数据的识别能力。代表性的数据集包括Permuted MNIST、Rotated MNIST、VLCS。

  • Permuted MNIST:对MNIST数据集的像素进行随机置换,产生多个任务。每个任务都有相同的类别(0-9),但输入数据的像素排列不同。

  • Rotated MNIST:将MNIST数据集的图像进行不同角度的旋转生成多个任务。例如,0度、15度、30度等。

  • VLCS:包含来自PASCAL VOC 2007, LabelMe, Caltech, 和Sun的数据,用于不同领域的图像分类任务。

1.3 Class Incremental Learning (Class-incremental)

类别增量学习,是指学习器在面对一系列任务时,每个任务引入新的类别,而旧类别不再出现。学习器需要在推理时能够区分所有曾经学习过的类别,但无法访问任务ID。这种学习模式的挑战在于,学习新类别的同时,要避免对旧类别的知识造成灾难性遗忘。代表性的数据集包括iCIFAR-100、iMNIST和CORe50等 。

  • iCIFAR-100(Incremental CIFAR-100):CIFAR-100数据集被分成多批,每一批包含不同的新类别。模型需在学习新类别的同时保留对旧类别的知识。

  • iMNIST(Incremental MNIST):类似于iCIFAR-100,但使用MNIST数据集。模型逐渐学习新的数字类别。

  • CORe50:一个包含50类物体的连续学习基准数据集,用于物体识别任务。

目录
相关文章
|
自然语言处理 算法 数据挖掘
自蒸馏:一种简单高效的优化方式
背景知识蒸馏(knowledge distillation)指的是将预训练好的教师模型的知识通过蒸馏的方式迁移至学生模型,一般来说,教师模型会比学生模型网络容量更大,模型结构更复杂。对于学生而言,主要增益信息来自于更强的模型产出的带有更多可信信息的soft_label。例如下右图中,两个“2”对应的hard_label都是一样的,即0-9分类中,仅“2”类别对应概率为1.0,而soft_label
自蒸馏:一种简单高效的优化方式
|
机器学习/深度学习 存储 算法
【博士每天一篇论文-算法】Continual Learning Through Synaptic Intelligence,SI算法
本文介绍了一种名为"Synaptic Intelligence"(SI)的持续学习方法,通过模拟生物神经网络的智能突触机制,解决了人工神经网络在学习新任务时的灾难性遗忘问题,并保持了计算效率。
617 1
【博士每天一篇论文-算法】Continual Learning Through Synaptic Intelligence,SI算法
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
907 9
|
机器学习/深度学习 存储 数据采集
【博士每天一篇文献-综述】A survey on few-shot class-incremental learning
本文是一篇关于少量样本增量学习(Few-shot Class-Incremental Learning, FSCIL)的综述,提出了一种新的分类方法,将FSCIL分为五个子类别,并提供了广泛的文献回顾和性能评估,讨论了FSCIL的定义、挑战、相关学习问题以及在计算机视觉领域的应用。
649 5
|
机器学习/深度学习 存储 算法
持续学习中避免灾难性遗忘的Elastic Weight Consolidation Loss数学原理及代码实现
在本文中,我们将探讨一种方法来解决这个问题,称为Elastic Weight Consolidation。EWC提供了一种很有前途的方法来减轻灾难性遗忘,使神经网络在获得新技能的同时保留先前学习任务的知识。
848 1
|
存储 开发框架 .NET
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
本文综述了持续学习的理论基础、方法论和应用实践,探讨了五种主要的解决策略,包括基于回放、架构、表示、优化和正则化的方法,并深入分析了持续学习的不同场景、分类、评价指标以及面临的挑战和解决方案。
504 1
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
|
机器学习/深度学习 算法 Python
【博士每天一篇文献-算法】Overcoming catastrophic forgetting in neural networks
本文介绍了一种名为弹性权重合并(EWC)的方法,用于解决神经网络在学习新任务时遭受的灾难性遗忘问题,通过选择性地降低对旧任务重要权重的更新速度,成功地在多个任务上保持了高性能,且实验结果表明EWC在连续学习环境中的有效性。
659 2
【博士每天一篇文献-算法】Overcoming catastrophic forgetting in neural networks
|
11月前
|
机器学习/深度学习 PyTorch 算法框架/工具
揭秘深度学习中的微调难题:如何运用弹性权重巩固(EWC)策略巧妙应对灾难性遗忘,附带实战代码详解助你轻松掌握技巧
【10月更文挑战第1天】深度学习中,模型微调虽能提升性能,但常导致“灾难性遗忘”,即模型在新任务上训练后遗忘旧知识。本文介绍弹性权重巩固(EWC)方法,通过在损失函数中加入正则项来惩罚对重要参数的更改,从而缓解此问题。提供了一个基于PyTorch的实现示例,展示如何在训练过程中引入EWC损失,适用于终身学习和在线学习等场景。
939 4
揭秘深度学习中的微调难题:如何运用弹性权重巩固(EWC)策略巧妙应对灾难性遗忘,附带实战代码详解助你轻松掌握技巧
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】2024机器遗忘最新综述之一:An overview of machine unlearning
本文提供了机器遗忘的全面定义、问题方程、精确与近似遗忘的概念,并分类总结了机器遗忘方法,讨论了其在联邦学习和终身学习中的应用,提出了未来研究方向,为机器遗忘研究领域奠定了理论基础并指出了实际应用的潜力与挑战。
840 5
【博士每天一篇文献-综述】2024机器遗忘最新综述之一:An overview of machine unlearning
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】Memory aware synapses_ Learning what (not) to forget
本文介绍了一种名为“记忆感知突触”(Memory Aware Synapses, MAS)的终身学习方法,该方法通过无监督在线评估神经网络参数的重要性,并在新任务学习时对重要参数的更改进行惩罚,有效防止了旧任务知识的覆盖,实现了内存效率和性能提升,同时具有灵活性和通用性。
245 1