给机器下「遗忘咒」?谷歌发起首个机器遗忘挑战赛

简介: 给机器下「遗忘咒」?谷歌发起首个机器遗忘挑战赛
给机器来一杯「忘情水」,这算不算机器遗忘?

机器学习经常被提及,那你有听过机器遗忘吗?

机器学习的目的大家都了解,它能够帮助我们的工作提升效率。但是机器遗忘是何目的?难道是「弃学」?

现在,不仅关于机器话题的讨论变得火热,甚至出现专门为机器遗忘组织的挑战。

近日,谷歌 AI 宣布联合广泛的学界与业界研究团队,组织首个机器遗忘挑战赛(Machine Unlearning Challenge)。

至于举办这一机器遗忘挑战赛的目的,谷歌表示希望有助于推进机器遗忘的 SOTA 水平,并鼓励开发高效、有效和合乎道德的遗忘算法。

比赛内容都有啥?

具体地讲,该挑战赛考虑这样一个真实场景:其中一个年龄预测器在人脸图像数据上进行了训练,接着在训练后,训练图像的某个子集必须被遗忘,以保护相关个人的隐私或其他权利。

摘自 Face synaesthetics 数据集的图像以及年龄注释。

比赛将在 Kaggle 平台上举办,提交的作品将根据遗忘质量和模型实用性进行自动评分。

其中对于评估遗忘,本次挑战赛将使用受成员推理攻击(Membership inference attacks, MIAs)启发的工具,如 LiRa。MIAs 最初是在隐私和安全文献中开发,其目的是推断哪些示例是训练集的一部分。

直白地讲,如果遗忘成功,遗忘过的模型中将不包含被遗忘示例的痕迹,这会导致 MIA 失败,即攻击者无法获知被遗忘集实际上是原始训练集的一部分。

此外,评估中还将使用统计测试来量化「遗忘模型的分布」与从头开始重新训练的模型的分布的差异程度。

相关比赛的信息可以查阅以下两个链接:


或许有读者要问了,为什么在机器学习的浪潮中,还会有这样一股机器遗忘的「逆流」奔涌呢?

什么是机器遗忘

机器遗忘是机器学习的一个新兴领域,最终目的是消除一个训练模型特定训练样本子集的影响,即消除「遗忘集」(forget set)的影响。

此外,较为理想的遗忘算法在消除某些样本影响的同时,还应该保留其他有益的特性,比如在其余训练集上的准确性以及对保留样本的泛化性。

下图为遗忘学习的剖析。遗忘算法将一个预训练模型以及要遗忘的训练集中的一个或多个样本作为输入。然后基于该模型、遗忘集和保留集,遗忘算法会生成一个更新模型。理想遗忘算法生成的模型与没有遗忘集参与训练的模型没有区别。

其实,有一个很「暴力」的方法能够得到这种理想的模型,就是在排除遗忘集样本后,重新训练模型。这个「暴力」手段虽立竿见影,但并不可行,因为重新训练深度模型的成本实在太过高昂。

因此,遗忘学习算法应该是以训练好的模型作为基点,并对其进行调整,来消除所要求数据带来的影响。

机器遗忘学习不仅仅应用于保护用户隐私,还能够通过训练,删除训练模型中不准确或者过时的信息,甚至是异常或者有害的数据。当然,这比消除几个指定遗忘集难度大得多,这也意味着它更有用处,比如它可以通过纠正偏见或对属于不同群体的歧视来提高模型的公平性。

「清扫、清扫,全都扔掉」

为何要发展机器遗忘

大家都受益于网络信息的易得性,但是往往忽略了在整个网络上删除某一信息的艰难。这堪比将一捧沙子撒入海里,再从不断涌动的海水中将沙粒一个个捡起,更重要的是,这些沙粒有不断复制的可能。

由此可见,信息及时被删除了也能通过各种手段有所保留。

在网络中留下的足迹,虽可能不被查询,但印记永存。2012 欧盟委员会就曾公布草案提出数据主体应享有「被遗忘权」。这对大数据背景下互联网产业发展具有深远而广泛的影响。

更别说近期正火热的大型语言模型,更是以海量的数据集作为基础进行发展的。大模型对于训练集的细节内容会进行学习和记忆,其中不乏用户的隐私信息,这导致可能涉及的隐私风险更加严峻。

因此机器学习模型中的安全和隐私问题是研究者必定面临的挑战。

网友表示,这场挑战赛将推动隐私保护。

在这样艰难、复杂的条件下,机器遗忘应运而生,有关于它的讨论和学习也日益成为机器学习领域的焦点之一。

参考链接:https://ai.googleblog.com/2023/06/announcing-first-machine-unlearning.htmlhttps://unlearning-challenge.github.io/

相关文章
|
5天前
|
机器学习/深度学习 搜索推荐 知识图谱
CIKM 2024:两位本科生一作,首次提出持续学习+少样本知识图谱补全
在信息爆炸时代,知识图谱的构建和维护面临数据稀疏与动态变化等挑战。CIKM 2024会议上,两位本科生提出将**持续学习与少样本学习结合**的新方法,有效应对这些难题。该方法通过持续学习框架适应动态变化,并利用少样本学习提高数据稀疏场景下的补全效果,显著提升了知识图谱的完整性和准确性。实验结果表明,此方法在准确性、鲁棒性和泛化能力上均有显著优势,为知识图谱补全领域带来了新思路。
60 40
|
1天前
|
人工智能 数据安全/隐私保护
深度揭秘CoT!普林斯顿耶鲁发布最新报告:大模型既有记忆推理、也有概率推理
普林斯顿大学和耶鲁大学研究人员发布报告,探讨链式思维(CoT)提示对大型语言模型(LLM)推理能力的影响。研究通过移位密码任务,揭示了三个关键因素:任务输出概率、预训练阶段的隐性学习及中间操作数量(噪声推理)。实验使用GPT-4、Claude 3和Llama 3.1模型,发现CoT提示可显著提升模型准确性,但也存在局限性。论文地址:https://arxiv.org/abs/2407.01687。
55 29
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
深挖大模型幻觉!哈佛大学最新报告:LLM等价于众包,只是在输出网络共识
大型语言模型(LLM)如ChatGPT正改变人机交互,但在生成看似真实的错误信息方面存在“幻觉”问题。这种现象源于LLM依赖统计概率而非语义理解,导致在处理争议或冷门话题时易出错。研究显示,LLM的准确性高度依赖于训练数据的质量和数量。尽管如此,LLM仍具巨大潜力,需持续优化并保持批判性使用。
58 12
|
1月前
|
机器学习/深度学习 测试技术
全球首次!时序大模型突破十亿参数,华人团队发布Time-MoE,预训练数据达3000亿个时间点
时序数据在动态系统和应用中至关重要,但其复杂性使得分析极具挑战。Time-MoE是一种基于稀疏混合专家设计的可扩展架构,旨在预训练更大、更强大的时序预测模型,同时降低推理成本。它在新数据集Time-300B上训练,包含超过3000亿个时间点,跨9个领域,显著提升了预测精度,成为解决时序预测问题的先进方案。
65 9
|
3月前
|
人工智能
LLM仍然不能规划,刷屏的OpenAI o1远未达到饱和
【10月更文挑战第19天】在人工智能研究中,智能体的规划能力被视为核心竞争力。2022年,PlanBench基准用于评估大型语言模型(LLM)的规划能力,但进展缓慢。近期,OpenAI发布的o1模型在PlanBench上表现出显著改进,特别是在Blocksworld和Mystery Blocksworld领域中,准确率达到97.8%,但成本较高且缺乏正确性保证。研究还探讨了LLM与外部验证器结合的方法,以提高准确性和降低成本。
30 1
|
8月前
|
机器学习/深度学习 数据采集 人工智能
没有指数级数据就没有Zero-shot!生成式AI或已到达顶峰
【5月更文挑战第29天】生成式AI论文引发关注,提出无指数级数据增长或致其发展达顶峰。依赖大量数据的生成式AI可能已遇瓶颈,零样本学习能力受限。尽管有挑战,但研究建议关注数据质量、探索新算法及跨领域应用,同时应对环境、伦理问题。[论文链接](https://arxiv.org/pdf/2404.04125)
87 5
|
3月前
|
数据处理
MoE再下一城!港大提出AnyGraph:首次开启图大模型Scaling Law之路
近年来,图结构数据因关系数据的广泛应用而备受关注,但现有模型在处理复杂图数据时需大量微调,灵活性受限。香港大学团队提出了AnyGraph,一种基于图混合专家(MoE)架构的统一图模型,有效应对结构与特征异质性、快速适应及规模定律挑战。通过多样化图专家与轻量级路由机制,AnyGraph实现零样本学习和跨领域数据处理。然而,其计算复杂度较高且路由机制仍有待优化。(239字)
56 2
|
6月前
|
Web App开发
生成式模型不只会模仿!哈佛、UCSB等最新成果:性能可超越训练集专家水平
【7月更文挑战第23天】研究人员从哈佛大学、UC Santa Barbara等机构展示了生成式模型的新突破:在特定任务上实现超越训练集专家水平的性能。通过“低温度采样”减少模型不确定性,实验中一个名为ChessFormer的模型在下棋任务上表现出了超越性,即性能超过了训练集中专家的平均水平。这项工作揭示了生成式模型在特定条件下实现超越的可能性,为该领域的研究和应用提供了新视角。[论文](https://arxiv.org/pdf/2406.11741)
43 2
|
8月前
|
数据采集 人工智能 自然语言处理
谷歌DeepMind发布Gecko:专攻检索,与大7倍模型相抗衡
【4月更文挑战第12天】谷歌DeepMind的Gecko模型以小巧身形(256维)展现出媲美大型语言模型的检索性能,且在MTEB基准测试中超越768维模型。采用两步蒸馏法训练,适用于多任务及硬件环境,尤其在多语言处理上表现出色。尽管训练成本高、泛化能力待优化,但其创新为文本嵌入技术带来新可能。
133 7
谷歌DeepMind发布Gecko:专攻检索,与大7倍模型相抗衡
|
8月前
|
存储 人工智能 PyTorch
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI
【2月更文挑战第24天】Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI
117 4
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI