万文长字总结「类别增量学习」的前世今生、开源工具包(3)

简介: 万文长字总结「类别增量学习」的前世今生、开源工具包

六、PyCIL: A Python Toolbox for Class-Incremental Learning


我们开源了一个基于pytorch的Class-IL框架:PyCIL。其中不仅包含了如EWC、iCaRL等一批早期的fundamental的方法,还包含了一些现在state-of-the-art的Class-IL算法,希望能够帮助一些希望了解和研究相关领域的学者。项目地址:PyCIL[13]

Methods Reproduced


FineTune: Baseline method which simply updates parameters on new task, suffering from Catastrophic Forgetting. By default, weights corresponding to the outputs of previous classes are not updated.

  • EWC: Overcoming catastrophic forgetting in neural networks. PNAS2017 [paper]
  • LwF: Learning without Forgetting. ECCV2016 [paper]
  • Replay: Baseline method with exemplars.
  • GEM: Gradient Episodic Memory for Continual Learning. NIPS2017 [paper]
  • iCaRL: Incremental Classifier and Representation Learning. CVPR2017 [paper]
  • BiC: Large Scale Incremental Learning. CVPR2019 [paper]
  • WA: Maintaining Discrimination and Fairness in Class Incremental Learning. CVPR2020 [paper]
  • PODNet: PODNet: Pooled Outputs Distillation for Small-Tasks Incremental Learning. ECCV2020 [paper]
  • DER: DER: Dynamically Expandable Representation for Class Incremental Learning. CVPR2021 [paper]
  • Coil: Co-Transport for Class-Incremental Learning. ACM MM2021 [paper]

部分实验结果

    实验结果(一) 实验结果(二)

参考

  1. Zhiyuan Chen; Bing Liu; Ronald Brachman; Peter Stone; Francesca Rossi, Lifelong Machine Learning: Second Edition , Morgan & Claypool, 2018. https://ieeexplore.ieee.org/document/8438617
  2. Catastrophic forgetting in connectionist networks https://www.sciencedirect.com/science/article/pii/S1364661399012942
  3. PackNet: Adding Multiple Tasks to a Single Network by Iterative Pruning https://arxiv.org/abs/1711.05769
  4. Three scenarios for continual learning https://arxiv.org/abs/1904.07734
  5. Learning without Forgetting https://arxiv.org/abs/1606.09282
  6. Distilling the Knowledge in a Neural Network https://arxiv.org/abs/1503.02531
  7. iCaRL: Incremental Classifier and Representation Learning https://arxiv.org/abs/1611.07725
  8. Large Scale Incremental Learning https://arxiv.org/abs/1905.13260
  9. Maintaining Discrimination and Fairness in Class Incremental Learning https://arxiv.org/abs/1911.07053
  10. DER: Dynamically Expandable Representation for Class Incremental Learning https://arxiv.org/abs/2103.16788
  11. https://arxiv.org/abs/1801.01423https://arxiv.org/abs/1801.01423
  12. Co-Transport for Class-Incremental Learning https://arxiv.org/abs/2107.12654
  13. PyCIL: A Python Toolbox for Class-Incremental Learning https://arxiv.org/abs/2112.12533
相关文章
|
10月前
|
机器学习/深度学习 存储 Python
|
6月前
|
数据处理 Python
数据变形记:Python转换技巧大公开,轻松玩转数据魔方!
在数据处理领域,数据变形是连接原始数据与洞察的桥梁。本文通过电商用户购买行为数据集的案例,展示了Python强大的数据处理能力。我们将购买日期转换为日期类型,计算每位用户的总花费,并对商品价格应用折扣,最终将杂乱的数据转化为有序、有价值的信息。通过Pandas库,我们实现了从简单类型转换到复杂数值计算的全过程,揭示了数据变形的无限可能。
53 1
|
6月前
|
弹性计算 监控 前端开发
[新]源代码生成服务-用户指南
本文以Springboot源代码仓库为例,介绍如何快速将GitHub仓库转化为计算巢服务并进行测试。计算巢服务是云资源与软件的编排集合,服务商可将其发布的服务供用户创建实例并使用。文中详细描述了从创建服务、配置参数到实例化和使用的全流程,并提供了高级配置的说明。
|
机器学习/深度学习 自然语言处理 安全
【网安专题11.8】14Cosco跨语言代码搜索代码: (a) 训练阶段 相关程度的对比学习 对源代码(查询+目标代码)和动态运行信息进行编码 (b) 在线查询嵌入与搜索:不必计算相似性
【网安专题11.8】14Cosco跨语言代码搜索代码: (a) 训练阶段 相关程度的对比学习 对源代码(查询+目标代码)和动态运行信息进行编码 (b) 在线查询嵌入与搜索:不必计算相似性
310 0
|
Linux 测试技术 数据处理
R语言丨根据VCF文件设计引物,自动识别两样本差异SNP位点,调用samtools获取上下游参考序列,快速得到引物序列
R语言丨根据VCF文件设计引物,自动识别两样本差异SNP位点,调用samtools获取上下游参考序列,快速得到引物序列
|
机器学习/深度学习 存储 算法
万文长字总结「类别增量学习」的前世今生、开源工具包(1)
万文长字总结「类别增量学习」的前世今生、开源工具包
204 0
|
存储 算法 数据可视化
万文长字总结「类别增量学习」的前世今生、开源工具包(2)
万文长字总结「类别增量学习」的前世今生、开源工具包
265 0
Argo 数据集下载地址-具体到每天数据(包含数据说明书)
将所用的Argo数据下载地址和一键下载方式分享给大家
Argo 数据集下载地址-具体到每天数据(包含数据说明书)
|
传感器 编译器 Python
Python编程基础:实验7——文件和数据格式化
巩固Python文件操作相关基础知识,熟练的掌握文件操作至关重要。
490 0
Python编程基础:实验7——文件和数据格式化
|
API Python
Python为文档批量注音(生僻字歌词为例)
如果不认识,你可以查字典,找度娘,然后标注上拼音啊!即娱乐又长知识了。 当然有人觉得这样一个一个的查太麻烦,那是因为----你不会Python啊! 今天,我就来教教你们,怎么把文本内容自动标注拼音。
213 0

相关实验场景

更多