Umang 谈部署可解释机器学习面临的挑战(上)

简介: 本文是由 Umang 博士分享关于 ML 可解释性方面面临的挑战。

在实践中如何使用现有的可解释性方法?

Umang 提到了围绕 XAI(可解释 AI)的文献大幅增长。特别是,旨在“解释”机器学习输出的提议算法的增加。有了这个观察结果,Umang 的团队着手做的事情之一就是研究组织如何使用这些算法


研究访谈

在他们的研究中,他们对来自 30 个不同组织的 50 人进行了半结构化访谈,访谈持续时间在 30 分钟到 2 小时之间。

共同语言

团队意识到需要共享和建立语言来思考可解释的人工智能,以便能够围绕该主题进行这些对话。 Umang 提供以下两个定义:

  • 透明度:向利益相关者提供有关模型如何工作的相关信息:这包括训练过程的文档、训练数据分布的分析、代码发布、特征级别说明等。
  • (本地)可解释性:提供对特定数据点的模型行为的洞察。

关键点在于,可解释性是一种实现透明的算法方法。


被问到的问题

一旦在访谈中建立了共同语言,受访者就会被问到以下问题:

  • 您使用了哪种类型的解释(例如,基于特征的、基于样本的、反设事实(Counterfactuals)的或自然语言)?
  • 谁是模型解释的受众(例如,研究科学家、产品经理、领域专家或用户)?
  • 您在什么情况下部署了模型解释(例如,告知开发过程,告知人类决策者有关模型的信息,或告知最终用户如何根据模型的输出采取行动)?


解释类型


Umang 和他的团队发现了一些非常流行的解释类型:

网络异常,图片无法展示
|


  • 特征重要性:使用相关性(重要)的特征,而不是相关性较小的特征(不重要),以做出正确的决策,并避免虚假相关性等误导性结论
  • 样本重要性:尝试回答“在预测新测试点时哪些训练数据点最有影响力?”这个问题。
  • 反设事实(Counterfactuals):试图回答“为了改变这个预测变量的结果,你需要改变自己的哪些方面?”这个问题。

谁在乎可解释性?

他们意识到的下一件事是,谁是对 ML 可解释性有既得利益的利益相关者:

网络异常,图片无法展示
|


  • 高管:团队发现公司的工程经理、首席数据科学家等曾有过这样的经历,他们的高管会要求他们开始使用可解释的机器学习,这样他们就可以说他们的公司使用可解释的机器学习。
  • 工程师:他们是最普遍的利益相关者。 ML 工程师和数据科学家使用这些可解释性技术来健全地检查他们的模型。
  • 最终用户:开发可消费的解释可以在最终用户和 AI 之间建立信任。
  • 监管机构:监管机构,如法律、外交官和研究界,对了解 XAI 如何工作以了解它如何影响周围社区具有既得利益。

研究的最终发现

最终,团队确定了该研究的 3 个关键发现。


可解释性用于内部调试

如前所述,可解释的 AI 主要由 ML 工程师使用。他们在现有流水线之上添加了这一层 XAI 来检查他们的模型。正如一些 XAI 文献所宣称的那样,这些系统无法到达最终用户。他们发现这些系统的主要场景是内容审核和金融。

网络异常,图片无法展示
|


可解释性的目标没有在内部定义

他们发现,重要的利益相关者从一开始就没有参与,这最终使得解释很难被真实的人理解。与这些利益相关者合作并定义这些解释的目的和作用,并建立可解释性的目标非常重要。

建立可解释性目标:识别利益相关者,让利益相关者参与,并设计工作流程。

网络异常,图片无法展示
|


技术限制使得可解释性难以实时部署

研究中经常出现一些限制。

  • 特征级别解释暴露的虚假相关性:如果我发现特征归因有问题,我该如何解决?
  • 模型本身没有因果关系:高管和监管者希望将事物放入模型中,并希望看到它对结果的影响:他们希望看到某种相关性。这些模型可能根本不是因果关系,而是支持这种产生相关性的系统。
  • 样本重要性在计算上无法大规模部署:哪些训练点与模型相似并产生相似的结果?这很难回答,尤其是在大规模上。
  • 模型反转的隐私问题是存在的:如果我能给你解释,我就可以反转你的模型,反转你的训练数据并重建它,这成为了一个巨大的隐私问题。


是否可以使用现有的可解释性工具来确保模型不公平?


Umang 强调的这一部分的关键(也有点令人沮丧)的要点是:

  • 特征重要性表明模型公平性并不可靠。

人们为什么要关心好的解释?

请注意来自 Umang 的以下示例。

  1. 具有相同精度的模拟模型(A、B),但模型 B 不重视年龄特征。
  2. 具有相同精度的模拟模型,但分配给不同特征的重要性不同。

网络异常,图片无法展示
|


这里有两个具有 3 个特征的模拟模型:

  1. 财富
  2. 年龄,以及
  3. 花费在做一些下游任务上的时间。

假设有人对他们使用相同的解释技术。第一个模型的解释将特征的重要性排列为时间>财富>年龄。 对第二个模型的解释将特征的重要性排序为时间>财富,年龄不重要

这些模型可以以相同的精度执行相同的操作,但它们的解释却大不相同。 理论上,监管者可以进来说模型 A 是不公平的,因为它使用了一个歧视性属性,即年龄。

网络异常,图片无法展示
|


这个问题引出了另一个问题:人们应该如何在不损失准确性的情况下将模型 A 转换为模型 B

试图影响解释

其实已经有一些工作涉及影响解释。本文探讨的解决方案是通过对参数的对抗性扰动来降级解释,以便作者可以隐藏不公平或歧视性的特征。或者简单地解释一下,攻击模型的参数,使得对某个特征(如年龄)的归因减少。


相关文章
|
3月前
|
机器学习/深度学习 人工智能 JSON
【解决方案】DistilQwen2.5-R1蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
阿里云的人工智能平台 PAI,作为一站式的机器学习和深度学习平台,对DistilQwen2.5-R1模型系列提供了全面的技术支持。无论是开发者还是企业客户,都可以通过 PAI-ModelGallery 轻松实现 Qwen2.5 系列模型的训练、评测、压缩和快速部署。本文详细介绍在 PAI 平台使用 DistilQwen2.5-R1 蒸馏模型的全链路最佳实践。
|
2月前
|
人工智能 JSON 算法
【解决方案】DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen 系列是阿里云人工智能平台 PAI 推出的蒸馏语言模型系列,包括 DistilQwen2、DistilQwen2.5、DistilQwen2.5-R1 等。本文详细介绍DistilQwen2.5-DS3-0324蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践。
|
3月前
|
人工智能 运维 API
PAI-Model Gallery云上一键部署阶跃星辰新模型Step1X-Edit
4月27日,阶跃星辰正式发布并开源图像编辑大模型 Step1X-Edit,性能达到开源 SOTA。Step1X-Edit模型总参数量为19B,实现 MLLM 与 DiT 的深度融合,在编辑精度与图像保真度上实现大幅提升,具备语义精准解析、身份一致性保持、高精度区域级控制三项关键能力;支持文字替换、风格迁移等11 类高频图像编辑任务类型。在最新发布的图像编辑基准 GEdit-Bench 中,Step1X-Edit 在语义一致性、图像质量与综合得分三项指标上全面领先现有开源模型,比肩 GPT-4o 与 Gemin。PAI-ModelGallery 支持Step1X-Edit一键部署方案。
|
22天前
|
机器学习/深度学习 人工智能 自然语言处理
【新模型速递】PAI-Model Gallery云上一键部署MiniMax-M1模型
MiniMax公司6月17日推出4560亿参数大模型M1,采用混合专家架构和闪电注意力机制,支持百万级上下文处理,高效的计算特性使其特别适合需要处理长输入和广泛思考的复杂任务。阿里云PAI-ModelGallery现已接入该模型,提供一键部署、API调用等企业级解决方案,简化AI开发流程。
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
Cosmos on PAI系列一:PAI-Model Gallery云上一键部署NVIDIA Cosmos Reason-1
本篇文章介绍 Cosmos 最新世界基础模型 Cosmos Reason-1 如何在阿里云人工智能平台 PAI 上进行快速部署使用。
|
29天前
|
机器学习/深度学习 人工智能 JSON
DistilQwen-ThoughtX 蒸馏模型在 PAI-ModelGallery 的训练、评测、压缩及部署实践
通过 PAI-ModelGallery,可一站式零代码完成 DistilQwen-ThoughtX 系列模型的训练、评测、压缩和部署。
|
4月前
|
人工智能 自然语言处理 运维
【新模型速递】PAI一键云上零门槛部署DeepSeek-V3-0324、Qwen2.5-VL-32B
PAI-Model Gallery 集成国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,用户可以通过 PAI 以零代码方式实现从训练到部署再到推理的全过程,获得更快、更高效、更便捷的 AI 开发和应用体验。 现阿里云PAI-Model Gallery已同步接入DeepSeek-V3-0324、Qwen2.5-VL-32B-Instruct两大新模型,提供企业级部署方案。
|
3月前
|
人工智能 自然语言处理 运维
Qwen3 全尺寸模型支持通过阿里云PAI-ModelGallery 一键部署
Qwen3 是 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家(MOE)模型。目前,PAI 已经支持 Qwen3 全系列模型一键部署,用户可以通过 PAI-Model Gallery 快速开箱!
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
云上一键部署通义千问 QwQ-32B 模型,阿里云 PAI 最佳实践
3月6日阿里云发布并开源了全新推理模型通义千问 QwQ-32B,在一系列权威基准测试中,千问QwQ-32B模型表现异常出色,几乎完全超越了OpenAI-o1-mini,性能比肩Deepseek-R1,且部署成本大幅降低。并集成了与智能体 Agent 相关的能力,够在使用工具的同时进行批判性思考,并根据环境反馈调整推理过程。阿里云人工智能平台 PAI-Model Gallery 现已经支持一键部署 QwQ-32B,本实践带您部署体验专属 QwQ-32B模型服务。
|
4月前
|
机器学习/深度学习 人工智能 边缘计算
DistilQwen2.5蒸馏小模型在PAI-ModelGallery的训练、评测、压缩及部署实践
DistilQwen2.5 是阿里云人工智能平台 PAI 推出的全新蒸馏大语言模型系列。通过黑盒化和白盒化蒸馏结合的自研蒸馏链路,DistilQwen2.5各个尺寸的模型在多个基准测试数据集上比原始 Qwen2.5 模型有明显效果提升。这一系列模型在移动设备、边缘计算等资源受限的环境中具有更高的性能,在较小参数规模下,显著降低了所需的计算资源和推理时长。阿里云的人工智能平台 PAI,作为一站式的机器学习和深度学习平台,对 DistilQwen2.5 模型系列提供了全面的技术支持。本文详细介绍在 PAI 平台使用 DistilQwen2.5 蒸馏小模型的全链路最佳实践。

热门文章

最新文章