【博士每天一篇文献-综述】基于脑启发的连续学习算法有哪些?附思维导图

简介: 这篇博客文章总结了连续学习的分类,包括经典方法(重放、正则化和稀疏化方法)和脑启发方法(突触启发、双系统启发、睡眠启发和模块化启发方法),并讨论了它们在解决灾难性遗忘问题上的优势和局限性。

阅读时间:2023-12-4

1 思维导图

参考论文:

  1. YANG J, LI B, LI S, et al. Brain-inspired continuous learning: Technology, application and future[J]. 电子与信息学报, 2022, 44(5): 1865-1878.

2 连续学习分类

截屏2024-05-16 下午4.26.05.png
参考论文:

  1. YANG J, LI B, LI S, et al. Brain-inspired continuous learning: Technology, application and future[J]. 电子与信息学报, 2022, 44(5): 1865-1878.

2.1 经典方法

经典连续学习方法主要分为三类:重放方法、正则化方法和稀疏化方法。

2.1.1 重放方法

  • 原理:通过重放旧任务数据来恢复被新任务覆盖的知识。
  • 代表算法
    • Experience Replay:【End-to-end incremental learning】
    • Generative Replay:【Incremental classifier learning with generative adversarial networks】
  • 优点
    • 抗遗忘性能较好,能够有效恢复旧任务的知识。
    • 对非独立同分布数据流适应力较强。
  • 缺点
    • 空间复杂度高,需要存储旧任务数据。
    • 面对复杂任务时生成重放数据困难,鲁棒性较弱。

2.1.2 正则化方法

  • 原理:通过正则化项保护旧任务中重要的权重,减少新任务学习对旧任务知识的干扰。
  • 代表算法
    • Elastic Weight Consolidation (EWC):【Overcoming catastrophic forgetting in neural networks】
    • Learning without Forgetting (LwF):【Learning without forgetting】
  • 优点
    • 空间复杂度低,不需要额外存储旧任务数据。
    • 在相似数据流中表现出色。
  • 缺点
    • 在变化剧烈的类增量数据流上表现较差。
    • 需要动态调整正则化强度,适应性有挑战。

2.1.3 稀疏化方法

  • 原理:通过使网络权重稀疏分布,隔离参数间干扰,减少新任务对旧任务知识的影响。
  • 代表算法
    • 神经元剪枝(Neuron Pruning):【Learn-prune-share for lifelong learning】
      • 移除对网络的最终输出贡献较小的整个神经元来减少网络的复杂度。
    • 权重剪枝(Weight Pruning):【 Continual learning via neural pruning】
      • 将所有被评估为不重要的权重置为零或直接移除这些权重。
  • 优点
    • 抗遗忘性能和鲁棒性优秀。
    • 可以提高网络空间利用率。
  • 缺点
    • 空间复杂度较高,需要保留和维护参数。
    • 增加了计算复杂度,尤其是在使用神经剪枝算法时。

2.2 脑启发方法

脑启发的连续学习方法主要分为四类:突触启发方法、双系统启发方法、睡眠启发方法和模块化启发方法。

2.2.1 突触启发方法

  • 原理:模仿生物突触的可塑性,通过在线计算突触的重要性来保护重要的突触连接。
  • 代表算法
    • Elastic Weight Consolidation (EWC):【Overcoming catastrophic forgetting in neural networks】
    • Synaptic Intelligence (SI):【Continual learning through synaptic intelligence】
    • Memory Aware Synapses (MAS):【Memory aware synapses: Learning what (not) to forget】
  • 优点
    • 资源开销相对较小。
    • 对于短期连续学习非常有效。
  • 缺点
    • 对于变化剧烈的类增量数据流适应力差。
    • 长期记忆和知识重用性有待提高。

2.2.2 双系统启发方法

  • 原理:借鉴海马体和新皮质层的互补学习系统,通过长短期记忆网络的配合实现连续学习。
  • 代表算法
    • Complementary Learning Systems (CLS):【 A biologically inspired dual-network memory model for reduction of catastrophic forgetting】
    • Growing Dual-Memory (GDM):【Lifelong learning of spatiotemporal representations with dual-memory recurrent self-organization】
    • Deep Generative Replay (DGR):【Continual learning with deep generative replay】
    • Generative Replay(GR):【 Brain-inspired replay for continual learning with artificial neural networks】
  • 优点
    • 对复杂类增量场景的适应力强。
    • 内存开销小于模块化方法。
    • 知识重用率高于突触与睡眠方法。
  • 缺点
    • 内存和计算开销随着学习进行逐渐增大。
    • 实际部署难度和资源开销相对较高。

2.2.3 睡眠启发方法

  • 原理:模仿睡眠过程中的记忆巩固和清理过程,通过在ANN中添加睡眠程序来缓解灾难性遗忘。
  • 代表算法
    • 生成重放 (Replay):【FearNet: Brain-inspired model for incremental learning】
    • 睡眠巩固记忆 (Sleep Consolidation):【Biologically inspired sleep algorithm for artificial neural networks】
  • 优点
    • 在内存清理和突触强度调整方面具有独特优势。
    • 有助于恢复被遗忘的知识。
  • 缺点
    • 抗遗忘性能相对较差。
    • 泛化性能有待提高。

2.2.4 模块化启发方法

  • 原理:通过隔离参数实现模块化,模仿生物神经网络的模块化机制,减少任务间的干扰。
  • 代表算法
    • 模块化网络 (Modular Networks):【modularity helps organisms evolve to learn new skills without forgetting old skills】
    • 神经调节 (Neuromodulation):【Diffusion-based neuromodulation can eliminate catastrophic forgetting in simple neural networks】
    • 阻塞训练 (Block Training):【Comparing continual task learning in minds and machines】
  • 优点
    • 缓解灾难性遗忘效果良好。
    • 知识重用率较高。
  • 缺点
    • 空间复杂度在所有脑启发方法中最大。
    • 内存开销高于其他方法。
目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 资源调度
【博士每天一篇文献-算法】连续学习算法之HAT: Overcoming catastrophic forgetting with hard attention to the task
本文介绍了一种名为Hard Attention to the Task (HAT)的连续学习算法,通过学习几乎二值的注意力向量来克服灾难性遗忘问题,同时不影响当前任务的学习,并通过实验验证了其在减少遗忘方面的有效性。
39 12
|
28天前
|
算法 Java
掌握算法学习之字符串经典用法
文章总结了字符串在算法领域的经典用法,特别是通过双指针法来实现字符串的反转操作,并提供了LeetCode上相关题目的Java代码实现,强调了掌握这些技巧对于提升算法思维的重要性。
|
1月前
|
机器学习/深度学习 算法 计算机视觉
【博士每天一篇文献-算法】持续学习经典算法之LwF: Learning without forgetting
LwF(Learning without Forgetting)是一种机器学习方法,通过知识蒸馏损失来在训练新任务时保留旧任务的知识,无需旧任务数据,有效解决了神经网络学习新任务时可能发生的灾难性遗忘问题。
66 9
|
1月前
|
机器学习/深度学习 算法 机器人
【博士每天一篇文献-算法】改进的PNN架构Lifelong learning with dynamically expandable networks
本文介绍了一种名为Dynamically Expandable Network(DEN)的深度神经网络架构,它能够在学习新任务的同时保持对旧任务的记忆,并通过动态扩展网络容量和选择性重训练机制,有效防止语义漂移,实现终身学习。
41 9
|
30天前
|
算法 NoSQL 中间件
go语言后端开发学习(六) ——基于雪花算法生成用户ID
本文介绍了分布式ID生成中的Snowflake(雪花)算法。为解决用户ID安全性与唯一性问题,Snowflake算法生成的ID具备全局唯一性、递增性、高可用性和高性能性等特点。64位ID由符号位(固定为0)、41位时间戳、10位标识位(含数据中心与机器ID)及12位序列号组成。面对ID重复风险,可通过预分配、动态或统一分配标识位解决。Go语言实现示例展示了如何使用第三方包`sonyflake`生成ID,确保不同节点产生的ID始终唯一。
go语言后端开发学习(六) ——基于雪花算法生成用户ID
|
1月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之HNet:Continual learning with hypernetworks
本文提出了一种基于任务条件超网络(Hypernetworks)的持续学习模型,通过超网络生成目标网络权重并结合正则化技术减少灾难性遗忘,实现有效的任务顺序学习与长期记忆保持。
24 4
|
1月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】连续学习算法之RWalk:Riemannian Walk for Incremental Learning Understanding
RWalk算法是一种增量学习框架,通过结合EWC++和修改版的Path Integral算法,并采用不同的采样策略存储先前任务的代表性子集,以量化和平衡遗忘和固执,实现在学习新任务的同时保留旧任务的知识。
67 3
|
8天前
|
算法 BI Serverless
基于鱼群算法的散热片形状优化matlab仿真
本研究利用浴盆曲线模拟空隙外形,并通过鱼群算法(FSA)优化浴盆曲线参数,以获得最佳孔隙度值及对应的R值。FSA通过模拟鱼群的聚群、避障和觅食行为,实现高效全局搜索。具体步骤包括初始化鱼群、计算适应度值、更新位置及判断终止条件。最终确定散热片的最佳形状参数。仿真结果显示该方法能显著提高优化效率。相关代码使用MATLAB 2022a实现。
|
8天前
|
算法 数据可视化
基于SSA奇异谱分析算法的时间序列趋势线提取matlab仿真
奇异谱分析(SSA)是一种基于奇异值分解(SVD)和轨迹矩阵的非线性、非参数时间序列分析方法,适用于提取趋势、周期性和噪声成分。本项目使用MATLAB 2022a版本实现从强干扰序列中提取趋势线,并通过可视化展示了原时间序列与提取的趋势分量。代码实现了滑动窗口下的奇异值分解和分组重构,适用于非线性和非平稳时间序列分析。此方法在气候变化、金融市场和生物医学信号处理等领域有广泛应用。
|
1月前
|
算法
基于模糊控制算法的倒立摆控制系统matlab仿真
本项目构建了一个基于模糊控制算法的倒立摆控制系统,利用MATLAB 2022a实现了从不稳定到稳定状态的转变,并输出了相应的动画和收敛过程。模糊控制器通过对小车位置与摆的角度误差及其变化量进行模糊化处理,依据预设的模糊规则库进行模糊推理并最终去模糊化为精确的控制量,成功地使倒立摆维持在直立位置。该方法无需精确数学模型,适用于处理系统的非线性和不确定性。
基于模糊控制算法的倒立摆控制系统matlab仿真