准确率可达100%!谷歌全新方法解决ML模型「走捷径」问题

简介: 准确率可达100%!谷歌全新方法解决ML模型「走捷径」问题



 新智元报道  

编辑:Joey

【新智元导读】最近Google AI团队的新论文尝试对困扰ML模型的「走捷径」问题进行解答,并给出了几种显著性方法的建议。


通过大量训练解决任务的现代机器学习模型,在测试集上进行评估时可以取得出色的性能。

但有时它们做出了正确的预测,但使用的信息似乎与模型任务无关。

这是为什么呢?

原因之一在于训练模型的数据集包含与正确标签没有因果关系,但却是「可预测的伪影」。

也就是说,模型被无关信息给忽悠了。

例如,在图像分类数据集中,水印可能表示某个特定类别。

当所有狗的照片都碰巧是在室外拍摄的,背景都是绿草,因此绿色背景预示着狗的存在。

模型很容易依赖这种虚假的相关性(捷径),而不是更复杂的特征。

文本分类模型也可能倾向于学习捷径,比如过度依赖特定的单词、短语。

自然语言推理任务中一个臭名昭著的例子是在预测矛盾时依赖否定词。

论文链接贴在下方,感兴趣的小伙伴可以看看~

论文链接:https://aclanthology.org/P19-1334/
在构建模型时,其中重要的一步包括验证模型是否不依赖于此类捷径。

而输入显著性方法(如 LIME 或 Integrated Gradients)是实现此目的的常用方法。

在文本分类模型中,输入显著性方法为每个标记分配一个分数,其中分数越高表示对预测的贡献更大。

然而,不同的方法会产生非常不同的得分排名。那么,应该使用哪一个来发现捷径呢?

要回答这个问题, 我们提出了一个评估输入显著性方法的协议。

核心理念是有意向训练数据引入无意义的捷径,并验证模型是否学会了应用它们,以便确定地了解标记的基本事实重要性。

有了已知的真值(Ground Truth),我们就可以通过将已知重要的标记置于其排名顶部的一致性来评估任何显著性方法。

使用开源学习可解释性工具 (LIT),我们证明了不同的显着性方法可以在情感分类示例中产生非常不同的显着性图。

在上图的示例中,显著性分数显示在相应的标记下:颜色强度表示显着性;绿色和紫色代表正权重,红色代表负权重。

相同的标记 (eastwood) 被分配了最高 (Grad L2 Norm)、最低 (Grad Input) 和中等 (Integrated Gradients, LIME) 重要性分数。

定义真值


在机器学习中,真值「ground truth」一词指的是训练集对监督学习技术的分类的准确性。

这在统计模型中被用来证明或否定研究假设,ground truth 这个术语指的是为这个测试收集目标(可证明的)数据的过程。

而我们方法的关键是建立一个可用于比较的ground truth。

我们认为,路径的选择必须受到文本分类模型的已知信息的激励。

例如,毒性检测器倾向于使用身份词作为毒性线索,自然语言推理 (NLI) 模型假设否定词表示矛盾,预测电影评论情绪的分类器可能会忽略文本而支持数字评级。

文本模型中的捷径通常是词汇性的,可以包含多个标记,因此有必要测试显著性方法如何识别快捷方式中的所有标记。

创造捷径


为了评估显著性方法,我们首先将现有数据引入有序匹配的捷径。

为此,我们使用基于 BERT 的模型在斯坦福情感树库 (SST2) 上训练为情感分类器。

我们在BERT的词汇表中引入了两个无意义标记,zeroa 和 onea,我们将它们随机插入到一部分训练数据中。

每当文本中出现两个标记时,都会根据标记的顺序设置该文本的标签。


研究结果


我们转向LIT来验证在混合数据集上训练的模型确实学会了依赖捷径。

我们看到在LIT的选项卡模型在完全修改的测试集上达到100%的准确率。

在混合数据 (A) 上训练的模型的推理在很大程度上仍然是不透明的,但由于模型A在修改后的测试集上的性能是100%(与模型 B 的机会准确率形成对比,后者相似但仅在原始数据上训练)。

总的来说,我们将所描述的方法应用于两个模型(BERT、LSTM)、三个数据集(SST2、IMDB(长格式文本)、Toxicity(高度不平衡数据集))和三种词汇快捷方式变体(单标记、两个标记、两个有顺序的Token)。

此外,我们比较了多种显著性方法配置。我们的结果表明:

  • 寻找单个标记的捷径对于显著性方法来说是一项简单的任务,但并不是每个方法都指向一对重要的标记。
  • 适用于一种模型的方法可能不适用于另一种模型。
  • 输入长度等数据集属性很重要。
  • 诸如梯度向量等如何变成标量物质的细节也很重要。
  • 我们还发现,一些在最近的工作中被假设为次优的方法配置如 Gradient L2,可能会为 BERT 模型提供令人惊讶的好结果。


参考资料:https://twitter.com/GoogleAI/status/1600272280977780736

相关文章
|
3月前
|
自然语言处理 机器人 API
2026年阿里云简单部署OpenClaw(Clawdbot)并集成飞书完整步骤教程
最近OpenClaw(前身为Moltbot、Clawdbot)在版本迭代中进一步优化了与飞书的集成适配,无需复杂开发部署,通过规范化的凭证配置、权限开通与事件对接,即可实现飞书与OpenClaw的无缝联动。集成后,用户可在飞书单聊或群聊中直接与OpenClaw交互,驱动其完成办公自动化、任务管理、智能问答等核心功能,适配个人办公与轻量团队协作场景。本教程严格遵循官方适配逻辑,覆盖前期准备、飞书应用配置、OpenClaw对接、功能验证等全流程,确保操作可落地且信息原汁原味。
2472 1
2026年阿里云简单部署OpenClaw(Clawdbot)并集成飞书完整步骤教程
|
4月前
|
弹性计算 安全
⁉️ OpenClaw选择本地部署还是云端部署比较好?看完豁然开朗
OpenClaw支持本地与云端部署,但推荐云端部署:①云服务稳定公网访问,避免本地关机/断网导致中断,年费低至38元;②镜像一键部署,免环境冲突,升级扩容更便捷;③资源独立、弹性伸缩,无本地卡顿与安全风险。阿里云提供官方快速部署入口。
4528 5
|
11月前
|
数据采集 人工智能 运维
甭再盯死日志了,AI已经悄悄替你盯着网络流量了
甭再盯死日志了,AI已经悄悄替你盯着网络流量了
530 0
|
12月前
|
存储 机器学习/深度学习 缓存
vLLM 核心技术 PagedAttention 原理详解
本文系统梳理了 vLLM 核心技术 PagedAttention 的设计理念与实现机制。文章从 KV Cache 在推理中的关键作用与内存管理挑战切入,介绍了 vLLM 在请求调度、分布式执行及 GPU kernel 优化等方面的核心改进。PagedAttention 通过分页机制与动态映射,有效提升了显存利用率,使 vLLM 在保持低延迟的同时显著提升了吞吐能力。
7181 21
vLLM 核心技术 PagedAttention 原理详解
|
Linux Docker Windows
最新可用Docker国内镜像源加速列表
本列表为科研工作者提供可用的Docker镜像网站,帮助网络不佳用户加速访问。内容包括多个国内主流Docker Hub镜像加速站,支持多种系统配置方法,如Ubuntu、macOS和Windows。提供详细使用教程和配置命令,适用于科研及开发环境。列表持续更新,建议收藏使用。
6333 3
|
数据采集 机器学习/深度学习 人工智能
基于AI的网络流量分析:构建智能化运维体系
基于AI的网络流量分析:构建智能化运维体系
2345 13
|
人工智能 自然语言处理 机器人
【Prompt Engineering 提示词工程指南】​文本概括、信息提取、问答、文本分类、对话、代码生成、推理​
本文介绍了使用提示词与大语言模型(LLM)交互的基础知识。通过调整参数如温度(Temperature)、最高概率词元(Top_p)、最大长度(Max Length)及停止序列(Stop Sequences),可以优化模型输出。温度参数影响结果的随机性;Top_p 控制结果的多样性;最大长度限制输出长度;停止序列确保输出符合预期结构。此外,频率惩罚(Frequency Penalty)和存在惩罚(Presence Penalty)可减少重复词汇,提升输出质量。提示词需包含明确指令、上下文信息、输入数据及输出指示,以引导模型生成理想的文本。设计提示词时应注重具体性、避免歧义,并关注模型的具体行为
1998 1
【Prompt Engineering 提示词工程指南】​文本概括、信息提取、问答、文本分类、对话、代码生成、推理​
|
Linux 网络安全 数据安全/隐私保护
使用宝塔Linux搭建DVWA靶场保姆级教程
这是一篇详细的教程,作者基于其在Web渗透测试领域的学习经验,利用宝塔Linux面板搭建了DVWA靶场。从安装Linux宝塔面板到通过Docker运行DVWA容器,每一步都有详尽的文字描述和配图指导,确保读者能够顺利地进行实践操作,非常适合初学者快速上手并掌握相关技能。
1175 1

热门文章

最新文章