【博士每天一篇文献-综述】Machine Unlearning Solutions and Challenges

简介: 本文综述了机器遗忘的解决方案和挑战,全面分类并分析了精确遗忘和近似遗忘方法,探讨了它们在隐私保护、安全性增强、模型适应性提升中的应用,并提出了评价指标和未来研究方向。

1 介绍

年份:2024
作者:徐杰,吴子涵,香港城市大学
期刊: IEEE Transactions on Emerging Topics in Computational Intelligence(1区)
截屏2024-06-30 上午11.41.01.png
引用量:19
本文对机器遗忘解决方案的全面分类和分析,将现有解决方案分为精确遗忘学习(exact unlearning)方法和近似遗忘学习(approximate unlearning)方法。精确遗忘分为基于SISA框架的方法和非SISA方法,近似遗忘分为基于移除数据的影响函数、基于重新优化、基于梯度更新、特定于图数据的近似遗忘,以及基于新颖技术的近似遗忘这五个类别。精确遗忘方法通过算法级重训练彻底移除数据影响,而近似遗忘学习方法通过有效更新模型参数来最小化数据影响。论文全面回顾了这些解决方案,并识别和讨论了它们的优缺点。
截屏2024-06-30 上午10.51.18.png
截屏2024-06-30 上午10.51.54.png

Xu J, Wu Z, Wang C, et al. Machine unlearning: Solutions and challenges[J]. IEEE Transactions on Emerging Topics in Computational Intelligence, 2024.

2 创新点

  1. 全面分类与分析:论文提供了对现有机器遗忘解决方案的全面分类,包括精确遗忘和近似遗忘方法,为研究人员提供了结构化的理解。
  2. 批判性分析:深入分析了现有解决方案的优势和局限性。
  3. 理论基础:基于理论基础对遗忘方法进行分类,如影响函数、重优化或梯度更新。
  4. 隐私保护与安全:强调了机器遗忘在加强模型安全性和对抗性攻击中的重要作用,特别是在数据投毒攻击中去除有害数据点,提高模型的鲁棒性。
  5. 自适应性:讨论了机器遗忘在动态环境中提高模型适应性的能力,通过选择性地移除过时或不具代表性的数据,使模型能够适应环境的变化。
  6. 实施策略:论文还探讨了机器遗忘在不同领域的实施,包括计算机视觉、自然语言处理和图数据处理,并讨论了不同数据集和模型类型的应用。
  7. 评价指标:提出了评价机器遗忘解决方案的评价指标,如数据擦除完整性、遗忘时间效率、资源消耗和隐私保护。

3 相关研究

3.1 相关概念

(1)机器遗忘 (Machine Unlearning)

  • 问题定义: 机器遗忘指从已训练的机器学习模型中移除特定训练数据点的影响的过程。目标是在保留数据集其余部分的性能的同时,去除选定数据的影响。
  • 应用场景: 包括隐私保护、安全性增强和适应性提升。例如,遵守GDPR和CCPA等法规,允许用户请求从训练模型中移除其个人数据。
  • 挑战: 包括数据依赖性、模型复杂性、计算成本、隐私泄露风险和动态环境适应性等。
  • 评估指标: 包括数据擦除完整性、遗忘时间效率、资源消耗和隐私保护等。

(2)SISA框架
Sharding, Isolation, Slicing, and Aggregation (SISA)框架是一种通用的精确遗忘方法。通过分割训练数据、独立训练子模型、增量式更新模型和聚合子模型来实现数据的精确遗忘。
截屏2024-06-30 上午11.14.12.png
(3)精确遗忘和近似遗忘的定义
精确遗忘(Exact Unlearning)

  • 定义:精确遗忘的目标是通过算法级的重训练或其他方法彻底移除目标数据点对模型的影响。理想情况下,精确遗忘后的模型应该表现得就像从未在这些数据上训练过一样。
  • 方法:通常涉及对模型进行重新训练或使用特殊的数据隔离技术,例如SISA(Sharding, Isolation, Slicing, and Aggregation)框架,确保数据点被完全遗忘。
  • 特点:提供了较强的保证,即模型在遗忘数据后,其参数和预测与完全重新训练的模型无异。但这种方法通常计算成本高,需要较多的存储资源。

近似遗忘(Approximate Unlearning)

  • 定义:近似遗忘则关注于在可接受的误差范围内减少目标数据点对模型的影响,而不是完全移除。这种方法通常在效率和准确性之间做出权衡。
  • 方法:包括基于影响函数的调整、重新优化、梯度更新等技术,这些方法不需要完全重新训练模型,而是通过调整现有模型参数来减少特定数据的影响。
  • 特点:相较于精确遗忘,近似遗忘在计算效率、存储成本和模型灵活性方面具有优势。但可能会牺牲一定程度的遗忘完整性,即模型可能仍然保留对被遗忘数据的部分记忆。

3.2 精确遗忘

(1)基于SISA结构的精确遗忘

  • 随机森林的精确遗忘:讨论了如何将SISA框架应用于随机森林模型,特别是DaRE森林和HedgeCut方法,它们通过不同的策略来提高遗忘效率和降低延迟。
  • 基于图的模型的精确遗忘:由于图数据的相互连接特性,提出了GraphEraser和RecEraser方法,这些方法扩展了SISA框架以适应图数据结构。
  • k-Means的精确遗忘:DC-k-means方法采用了类似SISA的框架,但使用了树状分层聚合方法。
  • 联邦学习的精确遗忘:KNOT方法采用了SISA框架,实现了客户端级别的异步联邦遗忘学习。

截屏2024-06-30 上午11.15.37.png
(2)非SISA的精确遗忘

  • 统计查询学习:Cao等人提出了一种中介层“求和”,通过更新求和来实现数据点的移除。
  • 联邦学习的快速重训练:Liu等人提出了一种快速重训练方法,利用一阶泰勒近似技术和低代价的Hessian矩阵近似方法来减少计算和通信成本。

(3)精确遗忘方法的优缺点

  1. 附加存储成本:精确遗忘方法通常需要大量的额外存储空间来缓存模型参数、统计数据或中间结果。例如,SISA框架需要存储每个数据分片的模型参数,而HedgeCut需要存储子树变体。这限制了在大型模型或频繁遗忘请求中的可扩展性。
  2. 强假设:一些方法对学习算法或数据特性有强烈的假设。例如,SISA可能在处理高度依赖的数据时表现不佳,而统计查询学习要求算法能够以求和形式表达。特定于某些模型的方法,如DaRE、HedgeCut、GraphEraser和RecEraser,适用性有限。
  3. 模型效用:尽管大多数方法声称在遗忘后能够保持准确性,但缺乏在不同设置下的彻底分析。需要对不同模型、数据集和移除量进行严格的评估,以提供具体的效用保证。
  4. 计算成本:精确遗忘方法在初始训练期间增加了计算成本,因为需要训练多个子模型并进行聚合。当计算资源有限时,这可能不可行。
  5. 处理动态数据:现有方法主要集中在固定训练集上移除数据。处理动态变化的数据,以及持续的插入和移除请求,仍然是一个开放问题。
  6. 选择和实用性:尽管现有的精确遗忘方法能够高效准确地移除数据,但它们在存储、假设、效用维持和可扩展性方面存在局限性。选择最合适的方法取决于应用的具体要求,包括数据类型、模型类型、可用资源,以及效率和准确性之间的期望平衡。

3.3 近似遗忘

(1)基于移除数据的影响函数的近似遗忘
原理:这种方法通过计算被移除数据点对模型参数的影响,然后更新模型参数以减少这些数据点的影响。影响函数衡量了单个训练样本对模型预测的影响。
代表性算法:Guo等人提出的算法利用影响函数进行数据移除,并实现了L2正则化线性模型的认证移除。Sekhari等人的工作通过使用训练数据的统计信息来减少存储和计算需求。
截屏2024-06-30 上午11.33.22.png

(2)基于移除数据后的重新优化的近似遗忘
原理:此方法首先在完整数据集上训练模型,然后定义一个新的损失函数以在保留的数据上维持准确性,并通过重新优化过程来最小化这个新的损失函数,从而实现对特定数据点的遗忘。
代表性算法:Golatkar等人提出的选择性遗忘算法通过修改网络权重,使得被遗忘数据的分布与从未训练过这些数据的网络权重分布不可区分。
截屏2024-06-30 上午11.33.41.png

(3)基于梯度更新的近似遗忘
原理:在这种方法中,通过对新数据执行少量梯度更新步骤来适应模型参数的小变化,而无需完全重新训练模型。
代表性算法:DeltaGrad算法利用缓存的梯度和参数信息来快速适应小的训练集变化。FedRecover算法从被污染的模型中恢复准确的全局模型,同时最小化客户端的计算和通信成本。
截屏2024-06-30 上午11.33.58.png

(4)特定于图数据的近似遗忘
原理:图数据由于其固有的依赖性,需要专门的方法来处理。这些方法考虑了图结构数据中节点和边的相互依赖性。
代表性算法:Wu等人提出的Graph Influence Function (GIF) 考虑了节点/边/特征对其邻居的结构影响。Cheng等人提出的GNNDELETE方法集成了一种新颖的删除操作符来处理图中边的删除影响。
截屏2024-06-30 上午11.34.15.png

(5)基于新颖技术的近似遗忘
原理:这种方法利用独特的模型架构或数据特性来开发新的近似遗忘技术。
代表性算法:Wang等人提出的模型剪枝方法在联邦学习中选择性地移除CNN分类模型中的类别。Izzo等人提出的Projective Residual Update (PRU) 用于从线性回归模型中移除数据。ERM-KTP是一种可解释的知识级机器遗忘方法,通过在训练期间使用减少纠缠的掩码(ERM)来分离和隔离特定类别的知识。

3.4 潜在研究方向

(1)多样化数据结构的遗忘学习
扩展遗忘学习算法以适应文本、语音、多媒体等复杂数据结构,处理不同数据类型的独特特性,如语言的时序性、图像的空间关系等。
(2)非凸模型的遗忘学习
将遗忘学习算法应用于非凸模型,如卷积神经网络(CNN)、循环神经网络(RNN)和变换器(Transformers),解决非凸优化问题,提供理论上的保证。
(3)用户指定的遗忘粒度
开发交互式和可解释的遗忘学习算法,允许用户以更细粒度指定要遗忘的内容,例如图像中的特定区域或文本中的特定词语。
(4)遗忘学习的隐私保证
探索超越差分隐私的更强隐私保护概念,以严格限制信息泄露,同时不过分牺牲模型效用,例如利用信息论方法直接限制模型保留的被遗忘数据的信息量。
(5)定量评估指标
开发定量评估指标来衡量被遗忘数据的影响移除程度和剩余数据的影响保留程度,利用信息论和可解释性研究的工具来系统分析机器学习模型的记忆力过程。

6 思考

(1)本文对精确遗忘和近似遗忘的方法进行了系统的分类,并提出了几个潜在的研究方向,这是其中一个能发一区的原因。
(2)论文虽说是发表是2024,但是所有相关研究都是截止2023年的。

目录
相关文章
|
3月前
|
机器学习/深度学习 编解码 数据挖掘
【博士每天一篇文献-综述】Network hubs in the human brain
本文综述了人类大脑网络连接的研究,探讨了网络枢纽在认知功能和大脑疾病中的关键作用,并介绍了网络枢纽的检测方法以及网络模型在大脑功能研究中的应用。
41 1
|
3月前
|
存储
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
本文是2016年Paul Miller在《F1000Research》上发表的论文,深入探讨了神经回路中的动力系统和吸引子,强调了使用基于动力系统的数学模型对神经回路进行准确建模的重要性,并分析了点吸引子、多稳态、记忆、抑制稳定网络等不同动力学系统在神经回路中的作用及对认知功能的影响。
25 7
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
|
3月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
45 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
3月前
|
机器学习/深度学习 传感器 人工智能
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
本文提供了对脑启发计算(BIC)领域的系统性综述,深入探讨了BIC的理论模型、硬件架构、软件工具、基准数据集,并分析了该领域在人工智能中的重要性、最新进展、主要挑战和未来发展趋势。
74 2
【博士每天一篇论文-综述】Brain Inspired Computing : A Systematic Survey and Future Trends
|
3月前
|
算法 前端开发 数据可视化
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
本文综述了脑网络通信的概念、模型和应用,将脑网络通信模型分为扩散过程、参数模型和路由协议三大类,并探讨了这些模型在理解大脑功能、健康和疾病方面的应用,同时提出了未来研究方向和使用Brain Connectivity Toolbox等工具箱进行实际研究的指导。
39 1
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
|
3月前
|
机器学习/深度学习 移动开发 算法
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。
21 1
【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory
|
3月前
|
存储 开发框架 .NET
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
本文综述了持续学习的理论基础、方法论和应用实践,探讨了五种主要的解决策略,包括基于回放、架构、表示、优化和正则化的方法,并深入分析了持续学习的不同场景、分类、评价指标以及面临的挑战和解决方案。
50 1
【博士每天一篇文献-综述】A Comprehensive Survey of Continual Learning Theory, Method and Application
|
3月前
|
机器学习/深度学习 算法 安全
【博士每天一篇文献-综述】Machine Unlearning Taxonomy, Metrics, Applications, Challenges, and Prospects
本文综述了机器遗忘的分类、评价指标、应用场景、挑战和未来研究方向,提出了精确遗忘和近似遗忘的概念,并探讨了机器遗忘在模型优化和防御攻击中的应用,同时讨论了分布式学习环境下的遗忘挑战和解决方案。
96 5
|
3月前
|
机器学习/深度学习 监控 安全
【博士每天一篇文献-综述】Threats, Attacks, and Defenses in Machine Unlearning A Survey
本文提供了对机器遗忘领域的综合性调查,提出了新的威胁、攻击和防御分类法,深入分析了机器遗忘系统中的安全问题,并探讨了如何利用攻击手段评估遗忘有效性,同时讨论了遗忘作为防御机制的角色以及面临的挑战和未来研究方向。
54 2
|
3月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-综述】Brain-inspired learning in artificial neural networks a review
这篇综述论文探讨了如何将生物学机制整合到人工神经网络中,以提升网络性能,并讨论了这些整合带来的潜在优势和挑战。
42 5