阅读时间:2023-10-19
1 简介
从不同的角度去解决连续学习的五种方法
- 基于回放的方法:近似和恢复旧的数据分布
- 基于架构的方法:使用设计良好的架构构建任务自适应参数
- 构建任务特定的参数
- 基于表示的方法:学习强健且具有良好泛化能力的表示
- 是一种在持续学习中创造和利用表示优势的方法。它包括使用自监督学习和大规模预训练等策略来改进初始化和持续学习中的表示。该方法通过构建和利用表示来解决持续学习中的挑战,例如遗忘和表示偏移。通过使用自监督学习和预训练,可以获得更稳健的表示,并在新任务中保持泛化能力。对于持续预训练和元训练,它们还涉及到在上游持续学习阶段改进下游任务性能的问题。在表示为基础的方法中,有多种子方向可以选择,如自监督学习、生成式回放和特征回放等。这些方法通过创建和利用表示来提高持续学习的性能和效果。
- 基于优化的方法:明确操纵优化程序
- 基于正则化的方法:使用参考旧模型添加正则化项
由于数据标记的成本和稀缺性,持续学习需要对少量、半监督甚至无监督的场景有效。
2 理论基础和分析
(1)按情景对CL分类
- 实例增量学习(IIL):所有训练样本属于同一任务,并按批次到达。
- 领域增量学习(DIL):任务具有相同的数据标签空间,但具有不同的输入分布。不需要任务标识。
- 任务增量学习(TIL):任务具有不相交的数据标签空间。训练和测试中都提供任务标识。
- 类增量学习(CIL):任务具有不相交的数据标签空间。训练中只提供任务标识。
- 无任务持续学习(TFCL):任务具有不相交的数据标签空间。训练和测试都不提供任务标识。
- 在线持续学习(OCL):任务具有不相交的数据标签空间。每个任务的训练样本作为一次性数据流到达。
- 模糊边界的持续学习(BBCL):任务边界模糊,特点是数据标签空间明确但有重叠。
- 持续预训练(CPT):预训练数据按顺序到达。目标是提高学习下游任务的性能。
(2)按样本数量分类
- 零样本[135],[399]
- 少样本[416]
- 半监督[441]
- 开放世界(即识别未知类别,并融入它们的标签)[197],[445]
- 无监督/自监督[170],[365]
(3)评价指标
- 综合指标
- 平均准确率AA
- 平均增量准确率AIA
- 记忆稳定性
- 遗忘测量(FM)
- 向后迁移(BWT)
- 学习可塑性
- 暂态测量(IM)
- 前向迁移(FWT)
(4)方法分类
第一种方法:重放旧样本
第二种方法:训练生成模型来近似和恢复旧数据分布
第二种方法:在贝叶斯框架中进行参数更新,并传播旧数据分布。基于网络参数的先验p(θ),使用贝叶斯定理计算在观察到第k个任务后的后验概率
3 启发
1、 重放replay的方法是存储旧样本的分布,可不可以通过PCA去降维过去样本的,保留样本的分布,而不是原始样本?
2、在一个模型中,使用重放和其他方法,一起来做,看看效果?
3、必须复现一下