【博士每天一篇文献-算法】On tiny episodic memories in continual learning

简介: 本文研究了在连续学习环境中使用小型情节记忆来解决灾难性遗忘问题,通过实证分析发现经验重播(ER)方法在连续学习中的表现优于现有最先进方法,并且重复训练对过去任务的小型记忆可以提升泛化性能。

阅读时间:2023-10-22

1 介绍

在连续学习中,智能体通过利用先前的经验从一系列任务中学习,并将知识传递给未来的任务。为了成功执行先前的任务,学习者需要记住如何执行它们。一种使学习者具备这种能力的方法是通过存储一个小的记忆,称为情节记忆,该记忆存储了来自先前任务的一些示例,并在训练未来任务时重播这些示例。作者通过实证分析了在每个训练样本仅出现一次的连续学习设置中,小型情节记忆的有效性。他们发现一种称为经验重播(ER)的简单基准方法,它在当前任务的示例和存储在情节记忆中的示例上进行训练,明显优于用于连续学习的现有最先进方法,无论是否使用情节记忆。此外,对过去任务的小型记忆进行重复训练不会损害泛化性能,反而会提高泛化性能。

2 创新点

引入了一个小型的情节性记忆,通过将之前的任务的示例存储在这个记忆中,并在训练后续任务时重新播放这些示例,从而解决了连续学习中的灾难性遗忘问题。

3 算法

存储一个称为情节记忆的小型记忆,它存储了来自之前任务的几个示例,并在训练未来任务时重放这些示例。
存储的来自之前任务的几个示例可以通过两种方式进行:

  1. 经验回放-蓄水池采样(Reservoir Sampling): 这种方法在整个数据流中随机选择一些数据点来存储在记忆中。通过这种方法,可以保持对之前任务的一些样本进行回放,以供未来任务的训练使用。经验表明,水塘采样在记忆容量较大时效果最好。
  2. 环形缓冲区(Ring Buffer): 这种方法为每个任务分配了一组FIFO(First-In-First-Out)缓冲区,每个类别有一个缓冲区。缓冲区的大小是预先设定的,它保留了每个类别最近的若干观察样本。与水塘采样不同,环形缓冲区不会在训练过程中更改来自早期任务的样本,这可能导致更强的过拟合。然而,在训练的早期阶段,由于每个类别的缓冲区大小保持不变,存储器不能充分利用。然而,这种简单的抽样策略保证了记忆中所有类别的平等表示,这在记忆很小时特别重要。

4 实验分析和结果

四个常用的基准数据集。Permuted MNIST 、Split CIFAR 、Split miniImageNet、Split CUB。
采用的模型有FINETUN、EWC、A-GEM、MER
在这里插入图片描述

  • FINETUNE是一种模型,它在没有任何正则化和情节记忆的情况下进行持续训练,并且使用上一个任务的参数初始化新任务的参数。
  • EWC是一种基于正则化的方法,通过限制对于过去任务性能至关重要的参数的学习来避免灾难性遗忘。
  • A-GEM是一种使用情节记忆作为优化约束的模型。
  • MER是一种利用情节记忆并使用近似当前任务梯度和先前任务梯度点积的损失来避免遗忘的模型。

根据实验结果,当任务之间相关度较小时,即旋转角度差小于20度时,即使没有记忆,通过在T2上的训练也可以改善对T1的泛化性能。然而,当在D2和M1上进行训练时,无论两个任务之间的相关性如何,T1的泛化性能都优于FINETUNE方法,即仅使用D2进行训练。
实验还比较了不同的记忆更新策略,其中经验表明对于小型情节性记忆,基于样本均衡的采样方法效果最好,而对于更大的记忆,基于蓄水池采样(Reservoir Sampling)的方法效果最好。此外,综合使用蓄水池采样和基于环形缓冲区的方法可以在记忆中保留充足的样本的同时实现良好的随机性。

5 待研究问题

什么样的最佳输入最能减轻预期遗忘,并寻找在记忆完全填满时从记忆中删除样本的最佳策略。

6 代码

https://github.com/firehose-dataset/congrad?utm_source=catalyzex.com

目录
相关文章
|
5月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
103 12
|
5月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
347 9
|
5月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
130 3
|
14天前
|
算法 数据安全/隐私保护 计算机视觉
基于Retinex算法的图像去雾matlab仿真
本项目展示了基于Retinex算法的图像去雾技术。完整程序运行效果无水印,使用Matlab2022a开发。核心代码包含详细中文注释和操作步骤视频。Retinex理论由Edwin Land提出,旨在分离图像的光照和反射分量,增强图像对比度、颜色和细节,尤其在雾天条件下表现优异,有效解决图像去雾问题。
|
14天前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
109 68
|
23天前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。
|
1月前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
186 80
|
24天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
24天前
|
算法
基于龙格库塔算法的锅炉单相受热管建模与matlab数值仿真
本设计基于龙格库塔算法对锅炉单相受热管进行建模与MATLAB数值仿真,简化为喷水减温器和末级过热器组合,考虑均匀传热及静态烟气处理。使用MATLAB2022A版本运行,展示自编与内置四阶龙格库塔法的精度对比及误差分析。模型涉及热传递和流体动力学原理,适用于优化锅炉效率。
|
22天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。