给机器下「遗忘咒」?谷歌发起首个机器遗忘挑战赛

简介: 给机器下「遗忘咒」?谷歌发起首个机器遗忘挑战赛
给机器来一杯「忘情水」,这算不算机器遗忘?

机器学习经常被提及,那你有听过机器遗忘吗?

机器学习的目的大家都了解,它能够帮助我们的工作提升效率。但是机器遗忘是何目的?难道是「弃学」?

现在,不仅关于机器话题的讨论变得火热,甚至出现专门为机器遗忘组织的挑战。

近日,谷歌 AI 宣布联合广泛的学界与业界研究团队,组织首个机器遗忘挑战赛(Machine Unlearning Challenge)。

至于举办这一机器遗忘挑战赛的目的,谷歌表示希望有助于推进机器遗忘的 SOTA 水平,并鼓励开发高效、有效和合乎道德的遗忘算法。

比赛内容都有啥?

具体地讲,该挑战赛考虑这样一个真实场景:其中一个年龄预测器在人脸图像数据上进行了训练,接着在训练后,训练图像的某个子集必须被遗忘,以保护相关个人的隐私或其他权利。

摘自 Face synaesthetics 数据集的图像以及年龄注释。

比赛将在 Kaggle 平台上举办,提交的作品将根据遗忘质量和模型实用性进行自动评分。

其中对于评估遗忘,本次挑战赛将使用受成员推理攻击(Membership inference attacks, MIAs)启发的工具,如 LiRa。MIAs 最初是在隐私和安全文献中开发,其目的是推断哪些示例是训练集的一部分。

直白地讲,如果遗忘成功,遗忘过的模型中将不包含被遗忘示例的痕迹,这会导致 MIA 失败,即攻击者无法获知被遗忘集实际上是原始训练集的一部分。

此外,评估中还将使用统计测试来量化「遗忘模型的分布」与从头开始重新训练的模型的分布的差异程度。

相关比赛的信息可以查阅以下两个链接:


或许有读者要问了,为什么在机器学习的浪潮中,还会有这样一股机器遗忘的「逆流」奔涌呢?

什么是机器遗忘

机器遗忘是机器学习的一个新兴领域,最终目的是消除一个训练模型特定训练样本子集的影响,即消除「遗忘集」(forget set)的影响。

此外,较为理想的遗忘算法在消除某些样本影响的同时,还应该保留其他有益的特性,比如在其余训练集上的准确性以及对保留样本的泛化性。

下图为遗忘学习的剖析。遗忘算法将一个预训练模型以及要遗忘的训练集中的一个或多个样本作为输入。然后基于该模型、遗忘集和保留集,遗忘算法会生成一个更新模型。理想遗忘算法生成的模型与没有遗忘集参与训练的模型没有区别。

其实,有一个很「暴力」的方法能够得到这种理想的模型,就是在排除遗忘集样本后,重新训练模型。这个「暴力」手段虽立竿见影,但并不可行,因为重新训练深度模型的成本实在太过高昂。

因此,遗忘学习算法应该是以训练好的模型作为基点,并对其进行调整,来消除所要求数据带来的影响。

机器遗忘学习不仅仅应用于保护用户隐私,还能够通过训练,删除训练模型中不准确或者过时的信息,甚至是异常或者有害的数据。当然,这比消除几个指定遗忘集难度大得多,这也意味着它更有用处,比如它可以通过纠正偏见或对属于不同群体的歧视来提高模型的公平性。

「清扫、清扫,全都扔掉」

为何要发展机器遗忘

大家都受益于网络信息的易得性,但是往往忽略了在整个网络上删除某一信息的艰难。这堪比将一捧沙子撒入海里,再从不断涌动的海水中将沙粒一个个捡起,更重要的是,这些沙粒有不断复制的可能。

由此可见,信息及时被删除了也能通过各种手段有所保留。

在网络中留下的足迹,虽可能不被查询,但印记永存。2012 欧盟委员会就曾公布草案提出数据主体应享有「被遗忘权」。这对大数据背景下互联网产业发展具有深远而广泛的影响。

更别说近期正火热的大型语言模型,更是以海量的数据集作为基础进行发展的。大模型对于训练集的细节内容会进行学习和记忆,其中不乏用户的隐私信息,这导致可能涉及的隐私风险更加严峻。

因此机器学习模型中的安全和隐私问题是研究者必定面临的挑战。

网友表示,这场挑战赛将推动隐私保护。

在这样艰难、复杂的条件下,机器遗忘应运而生,有关于它的讨论和学习也日益成为机器学习领域的焦点之一。

参考链接:https://ai.googleblog.com/2023/06/announcing-first-machine-unlearning.htmlhttps://unlearning-challenge.github.io/

相关文章
|
8月前
|
人工智能 计算机视觉
让机器准确看懂手物交互动作,清华大学等提出GeneOH Diffusion方法
【5月更文挑战第19天】清华大学等机构的研究人员提出GeneOH Diffusion方法,以提升机器对手物体交互动作的理解。该方法使用去噪扩散模型学习动作的潜在分布,能处理复杂场景并泛化到新动作,增强模型的通用性和适应性。尽管需要大量数据和计算资源训练,且可能在复杂动作识别上存在局限,但其强大的泛化能力对实际应用具有重要意义。[链接](https://arxiv.org/abs/2402.14810)
79 7
|
XML Java 数据库连接
GPT-4耗尽全宇宙数据!OpenAI接连吃官司,竟因数据太缺了,UC伯克利教授发出警告(一)
GPT-4耗尽全宇宙数据!OpenAI接连吃官司,竟因数据太缺了,UC伯克利教授发出警告
118 1
|
Web App开发 SQL Java
GPT-4耗尽全宇宙数据!OpenAI接连吃官司,竟因数据太缺了,UC伯克利教授发出警告(二)
GPT-4耗尽全宇宙数据!OpenAI接连吃官司,竟因数据太缺了,UC伯克利教授发出警告(二)
58 0
|
机器学习/深度学习 存储 传感器
Habitat Challenge 2022冠军方案:字节AI Lab提出融合传统和模仿学习的主动导航
Habitat Challenge 2022冠军方案:字节AI Lab提出融合传统和模仿学习的主动导航
271 0
|
机器学习/深度学习 存储 JSON
谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读
最近谷歌发布了基于双向 Transformer 的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各种 NLP 任务,该研究凭借预训练模型刷新了 11 项 NLP 任务的当前最优性能记录。如果这种预训练方式能经得起实践的检验,那么各种 NLP 任务只需要少量数据进行微调就能实现非常好的效果,BERT 也将成为一种名副其实的骨干网络。
566 0
谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读
|
机器学习/深度学习 算法 自动驾驶
谷歌大脑和DeepMind联合发布离线强化学习基准,将各种RL研究从线上转为线下
离线强化学习方法可以帮我们弥合强化学习研究与实际应用之间的差距。近日,Google和DeepMind推出的RL Unplugged使从离线数据集中学习策略成为可能,从而克服了现实世界中与在线数据收集相关的问题,包括成本,安全性等问题。
247 0
谷歌大脑和DeepMind联合发布离线强化学习基准,将各种RL研究从线上转为线下
|
机器学习/深度学习 人工智能 算法
以自动储备池学习机器实现高维场景预测,陈洛南/刘锐团队合作研究登Nature子刊
在实际应用中,仅用近期的短期数据来描述或预测一个复杂系统未来的状态对数据挖掘与分析方法提出了更大的挑战。所以,在本文中,研究者们提出了一种新型 ARNN 框架,它能够把高维空间数据映射到目标变量的未来时间信息,使得通过高维短序列时间序列数据的预测成为可能。
470 0
以自动储备池学习机器实现高维场景预测,陈洛南/刘锐团队合作研究登Nature子刊
|
机器学习/深度学习 人工智能 自然语言处理
机器之心独家对话吴恩达:很多技术其实是中国最先开始应用的
吴恩达,百度首席科学家、百度大脑项目负责人。在最近的百度语音开放平台三周年主题活动上,机器之心对这位与 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 齐名的人工智能专家进行了专访,深度了解了百度的人工智能研究、吴恩达的人工智能之路,以及更多的有关人工智能技术的话题。
323 0
机器之心独家对话吴恩达:很多技术其实是中国最先开始应用的
公鼠怀孕论文停止撤稿,作者称受到非科学讨论攻击!回应伦理担忧:减轻了动物痛苦
公鼠怀孕论文停止撤稿,作者称受到非科学讨论攻击!回应伦理担忧:减轻了动物痛苦
181 0
|
自然语言处理 算法 机器学习/深度学习

热门文章

最新文章