增量学习中Task incremental、Domain incremental、Class incremental 三种学习模式的概念及代表性数据集?

简介: 本文介绍了增量学习中的三种主要模式:任务增量学习(Task-incremental)、域增量学习(Domain-incremental)和类别增量学习(Class-incremental),它们分别关注任务序列、数据分布变化和类别更新对学习器性能的影响,并列举了每种模式下的代表性数据集。

1 概念

在持续学习领域,Task incremental、Domain incremental、Class incremental 是三种主要的学习模式,它们分别关注不同类型的任务序列和数据分布变化。
在这里插入图片描述

1.1 Task Incremental Learning (Task-incremental)

任务增量学习,也称为任务增量式学习,是指在这种学习模式下,学习器依次面对不同的任务,每个任务有自己独特的类别集合。在推理时,学习器需要能够识别所有曾经学习过的任务。这种学习模式的挑战在于,学习新任务时可能会对旧任务的知识造成灾难性遗忘。代表性的数据集包括Split MNIST、Split CIFAR-10、Split CIFAR-100。

  • Split MNIST:MNIST数据集被分成多个任务,每个任务包含不同的数字。例如,第一任务为0-1,第二任务为2-3,依此类推。

  • Split CIFAR-10:CIFAR-10数据集被分为多个任务,每个任务包含不同的类别。例如,第一任务为飞机和汽车,第二任务为鸟和猫,依此类推。

  • Split CIFAR-100:CIFAR-100数据集被分为多个任务,每个任务包含不同的类别。例如,前20类作为第一任务,接下来的20类作为第二任务,依此类推。

1.2 Domain Incremental Learning (Domain-incremental)

域增量学习,又称为领域增量学习,是指学习器在面对一系列任务时,每个任务的数据输入分布(domain)可能不同,但任务的类别集合保持一致。这种学习模式模拟了现实世界中数据分布随时间变化的情况。领域增量学习的挑战在于如何适应新数据分布的同时,保持对旧数据的识别能力。代表性的数据集包括Permuted MNIST、Rotated MNIST、VLCS。

  • Permuted MNIST:对MNIST数据集的像素进行随机置换,产生多个任务。每个任务都有相同的类别(0-9),但输入数据的像素排列不同。

  • Rotated MNIST:将MNIST数据集的图像进行不同角度的旋转生成多个任务。例如,0度、15度、30度等。

  • VLCS:包含来自PASCAL VOC 2007, LabelMe, Caltech, 和Sun的数据,用于不同领域的图像分类任务。

1.3 Class Incremental Learning (Class-incremental)

类别增量学习,是指学习器在面对一系列任务时,每个任务引入新的类别,而旧类别不再出现。学习器需要在推理时能够区分所有曾经学习过的类别,但无法访问任务ID。这种学习模式的挑战在于,学习新类别的同时,要避免对旧类别的知识造成灾难性遗忘。代表性的数据集包括iCIFAR-100、iMNIST和CORe50等 。

  • iCIFAR-100(Incremental CIFAR-100):CIFAR-100数据集被分成多批,每一批包含不同的新类别。模型需在学习新类别的同时保留对旧类别的知识。

  • iMNIST(Incremental MNIST):类似于iCIFAR-100,但使用MNIST数据集。模型逐渐学习新的数字类别。

  • CORe50:一个包含50类物体的连续学习基准数据集,用于物体识别任务。

目录
相关文章
|
4月前
|
算法 数据挖掘 数据处理
【博士每天一篇文献-综述】A Modified Echo State Network Model Using Non-Random Topology
本文介绍了一篇博士论文,提出了一种基于非随机拓扑结构的改进型Echo State Networks (ESN)模型,用于处理时间序列数据,通过在储层中使用复杂网络和聚类模型的拓扑结构,提高了模型性能并降低了计算成本,论文还展示了该模型在信号预测和图像分类中的应用。
42 3
【博士每天一篇文献-综述】A Modified Echo State Network Model Using Non-Random Topology
|
4月前
|
机器学习/深度学习 存储 开发框架
【博士每天一篇文献-算法】NICE Neurogenesis Inspired Contextual Encoding for Replay-free Class Incremental Learn
NICE(Neurogenesis Inspired Contextual Encoding)是一种新型深度神经网络架构,旨在通过模拟生物神经系统的成熟过程来解决类别增量学习中的灾难性遗忘问题,无需重放旧样本即可实现有效的增量学习。
59 5
|
4月前
|
算法 数据挖掘
【博士每天一篇文献-算法】Imposing Connectome-Derived Topology on an Echo State Network
本文研究了将果蝇连接图的拓扑结构应用于回声状态网络(ESN)中,提出了一种新型的“果蝇ESN”(FFESN),通过替换传统ESN的储层层为基于果蝇神经连接结构的连接矩阵,发现FFESN在混沌时间序列预测任务中表现出较传统ESN更低的方差或更高的性能。
29 1
|
4月前
|
机器学习/深度学习 算法 数据挖掘
【博士每天一篇文论文-算法】A small-world topology enhances the echo state property and signal propagationlun
本文研究了小世界拓扑结构在回声状态网络(ESN)中的作用,发现具有层级和模块化组织的神经网络展现出高聚类系数和小世界特性,这有助于提高学习性能和促进信号传播,为理解神经信息处理和构建高效循环神经网络提供了新的视角。
38 0
【博士每天一篇文论文-算法】A small-world topology enhances the echo state property and signal propagationlun
|
4月前
|
SQL 测试技术
预训练模型STAR问题之SST任务上下文SQL的问题如何解决
预训练模型STAR问题之SST任务上下文SQL的问题如何解决
|
4月前
LangChain 构建问题之定义extract_local_group_size工具如何解决
LangChain 构建问题之定义extract_local_group_size工具如何解决
24 0
yolov8在进行目标追踪时,model.track()中persist参数的含义
yolov8在进行目标追踪时,model.track()中persist参数的含义
|
编译器
【UVM避坑】记录 UVM / SV 使用过程中遇到的琐碎问题
【UVM避坑】记录 UVM / SV 使用过程中遇到的琐碎问题
1465 0
【UVM避坑】记录 UVM / SV 使用过程中遇到的琐碎问题
|
机器学习/深度学习 PyTorch 算法框架/工具
Re5:读论文 TWAG: A Topic-guided Wikipedia Abstract Generator
Re5:读论文 TWAG: A Topic-guided Wikipedia Abstract Generator
Re5:读论文 TWAG: A Topic-guided Wikipedia Abstract Generator