【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application

简介: 本文综述了持续学习的理论基础、方法论和应用实践,探讨了五种主要的解决策略,包括基于回放、架构、表示、优化和正则化的方法,并深入分析了持续学习的不同场景、分类、评价指标以及面临的挑战和解决方案。

阅读时间:2023-10-19

1 简介

从不同的角度去解决连续学习的五种方法

  • 基于回放的方法:近似和恢复旧的数据分布
  • 基于架构的方法:使用设计良好的架构构建任务自适应参数
    • 构建任务特定的参数
  • 基于表示的方法:学习强健且具有良好泛化能力的表示
    • 是一种在持续学习中创造和利用表示优势的方法。它包括使用自监督学习和大规模预训练等策略来改进初始化和持续学习中的表示。该方法通过构建和利用表示来解决持续学习中的挑战,例如遗忘和表示偏移。通过使用自监督学习和预训练,可以获得更稳健的表示,并在新任务中保持泛化能力。对于持续预训练和元训练,它们还涉及到在上游持续学习阶段改进下游任务性能的问题。在表示为基础的方法中,有多种子方向可以选择,如自监督学习、生成式回放和特征回放等。这些方法通过创建和利用表示来提高持续学习的性能和效果。
  • 基于优化的方法:明确操纵优化程序
  • 基于正则化的方法:使用参考旧模型添加正则化项

截屏2023-10-14 下午5.55.09.png
由于数据标记的成本和稀缺性,持续学习需要对少量、半监督甚至无监督的场景有效。

2 理论基础和分析

(1)按情景对CL分类

  • 实例增量学习(IIL):所有训练样本属于同一任务,并按批次到达。
  • 领域增量学习(DIL):任务具有相同的数据标签空间,但具有不同的输入分布。不需要任务标识。
  • 任务增量学习(TIL):任务具有不相交的数据标签空间。训练和测试中都提供任务标识。
  • 类增量学习(CIL):任务具有不相交的数据标签空间。训练中只提供任务标识。
  • 无任务持续学习(TFCL):任务具有不相交的数据标签空间。训练和测试都不提供任务标识。
  • 在线持续学习(OCL):任务具有不相交的数据标签空间。每个任务的训练样本作为一次性数据流到达。
  • 模糊边界的持续学习(BBCL):任务边界模糊,特点是数据标签空间明确但有重叠。
  • 持续预训练(CPT):预训练数据按顺序到达。目标是提高学习下游任务的性能。

(2)按样本数量分类

  • 零样本[135],[399]
  • 少样本[416]
  • 半监督[441]
  • 开放世界(即识别未知类别,并融入它们的标签)[197],[445]
  • 无监督/自监督[170],[365]

(3)评价指标

  • 综合指标
    • 平均准确率AA
    • 平均增量准确率AIA
  • 记忆稳定性
    • 遗忘测量(FM)
    • 向后迁移(BWT)
  • 学习可塑性
    • 暂态测量(IM)
    • 前向迁移(FWT)

(4)方法分类
第一种方法:重放旧样本
第二种方法:训练生成模型来近似和恢复旧数据分布
第二种方法:在贝叶斯框架中进行参数更新,并传播旧数据分布。基于网络参数的先验p(θ),使用贝叶斯定理计算在观察到第k个任务后的后验概率

3 启发

1、 重放replay的方法是存储旧样本的分布,可不可以通过PCA去降维过去样本的,保留样本的分布,而不是原始样本?
2、在一个模型中,使用重放和其他方法,一起来做,看看效果?
3、必须复现一下

4 代码

https://github.com/yashkant/Elastic-Weight-Consolidation

目录
相关文章
|
3月前
|
机器学习/深度学习 移动开发 算法
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。
21 1
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
|
3月前
|
存储 算法
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
本文研究了在连续学习环境中使用小型情节记忆来解决灾难性遗忘问题,通过实证分析发现经验重播(ER)方法在连续学习中的表现优于现有最先进方法,并且重复训练对过去任务的小型记忆可以提升泛化性能。
22 1
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
|
3月前
|
机器学习/深度学习 传感器 人工智能
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
本文提供了对脑启发计算(BIC)领域的系统性综述,深入探讨了BIC的理论模型、硬件架构、软件工具、基准数据集,并分析了该领域在人工智能中的重要性、最新进展、主要挑战和未来发展趋势。
74 2
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
|
3月前
|
机器学习/深度学习 存储 数据采集
【博士每天一篇文献-综述】A survey on few-shot class-incremental learning
本文是一篇关于少量样本增量学习(Few-shot Class-Incremental Learning, FSCIL)的综述,提出了一种新的分类方法,将FSCIL分为五个子类别,并提供了广泛的文献回顾和性能评估,讨论了FSCIL的定义、挑战、相关学习问题以及在计算机视觉领域的应用。
75 5
|
3月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】Fearnet Brain-inspired model for incremental learning
本文介绍了FearNet,一种受大脑记忆机制启发的神经网络模型,用于解决增量学习中的灾难性遗忘问题。FearNet不存储先前的例子,而是使用由海马体复合体和内侧前额叶皮层启发的双记忆系统,以及一个受基底外侧杏仁核启发的模块来决定使用哪个记忆系统进行回忆,有效减轻了灾难性遗忘,且在多个数据集上取得了优异的性能。
30 6
|
3月前
|
机器学习/深度学习 算法
【博士每天一篇文献-综述】A wholistic view of continual learning with deep neural networks Forgotten
本文提出了一个整合持续学习、主动学习(active learning)和开放集识别(open set recognition)的统一框架,基于极端值理论(Extreme Value Theory, EVT)的元识别方法,强调了在深度学习时代经常被忽视的从开放集识别中学习识别未知样本的教训和主动学习中的数据查询策略,通过实证研究展示了这种整合方法在减轻灾难性遗忘、数据查询、任务顺序选择以及开放世界应用中的鲁棒性方面的联合改进。
31 6
|
3月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-综述】Brain-inspired learning in artificial neural networks a review
这篇综述论文探讨了如何将生物学机制整合到人工神经网络中,以提升网络性能,并讨论了这些整合带来的潜在优势和挑战。
42 5
|
3月前
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】Machine Unlearning Taxonomy, Metrics, Applications, Challenges, and Prospects
本文综述了机器遗忘的分类、评价指标、应用场景、挑战和未来研究方向,提出了精确遗忘和近似遗忘的概念,并探讨了机器遗忘在模型优化和防御攻击中的应用,同时讨论了分布式学习环境下的遗忘挑战和解决方案。
96 5
|
3月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
60 4
|
3月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
43 3