如何理解机器学习中的偏见和公平(Aporia)

简介: 机器学习和大数据正变得越来越流行,它们对社会的影响也在不断扩大。许多行业越来越依赖机器学习算法和人工智能模型来做出每天影响企业和个人的关键决策。了解偏见和公平的概念,以及它们如何在数据和机器学习中表现出来,有助于确保您在实践可靠的人工智能和治理。

什么是机器学习公平性?

如今,机器学习系统已被纳入并集成到我们所依赖的无数行业和企业中,包括金融机构、房地产业、食品和饮料、零售业等。因此,他们必须满足社会和法律标准,才能做出公平和包容的决定。

但是,当我们使用“公平”这个词时,我们的实际意思是什么?

我们可以确定我们不希望模型基于宗教、种族、性别、残疾和政治取向等特征而产生负面偏见。

以最简单的形式,我们可以将公平定义为不同个体取得的平等结果,除非可以在他们之间以有意义的区分形式得出真正的理由。事实上,我们仍在定义一个全新的词汇和一套概念来谈论公平。


我们为什么要关心机器学习的公平性?

如果我们基于与决策过程无关的偏见和特征做出决策,我们的世界将不会变得更美好。如果存在这样一个世界,我们作为个人成为歧视的受害者只是时间问题。

以下是过去几年的一些案例,虽然, ML 系统的设计并非带有偏见,但在付诸实践时,事实证明它们具有偏见并且对公众有害:

  • COMPAS – 替代性制裁的惩罚性罪犯管理分析 (COMPAS) 是美国法院用来评估被告成为惯犯可能性的案件管理和决策支持工具。根据 ProPublica 的说法,COMPAS 系统错误地预测黑人被告的再犯风险比实际情况要高。
  • 亚马逊招聘算法——2014 年,亚马逊致力于一个项目,以自动化申请人简历审查流程。亚马逊在被发现歧视女性后决定关闭其实验性的机器学习招聘工具。
  • Apple Card – Apple Card 是由 Apple Inc. 创建并由 Goldman Sachs 发行的信用卡。它于 2019 年 8 月推出。使用几个月后,客户开始抱怨该卡的算法歧视女性。

机器学习中的偏见是什么?

机器学习的本质中存在一个固有缺陷:您的系统将从数据中学习,从而使其面临被反映在该数据中的人为偏见的风险。

本质上,偏见是模型预测的结果,是由于错误的假设而系统地扭曲的现象。 有偏见的模型是当我们在训练集上训练我们的模型并在测试集上评估我们的模型时产生大量损失或错误的模型。


数据中可能存在哪些类型的偏差?

网络异常,图片无法展示
|


常见的陷阱


受保护的属性代理

受保护的属性是法律上不能区分的特性或特征。它可以包括年龄、性别、种族、肤色、性取向、宗教、原籍国、婚姻状况等等。

即使受保护的属性没有出现在用于 ML 模型的数据集中,它仍可能通过代理(与受保护属性具有统计关系的属性)存在

有偏见的标签

用于训练 ML 模型的训练集可以由在标记过程中可能存在偏见的人进行标记。例如,在一个预测求职者成功率的系统中,如果标签是由一个有偏见的人(有意或无意)完成的,ML 模型将学习它接收到的已标注数据集中存在的偏见。

有偏抽样

如果模型已经具有初始偏差,则可能会随着时间的推移导致偏差退化。如果用于训练模型的数据集依赖于受污染模型做出的决策,则可能会发生这种情况。

想象一个偏向男性申请者的“招聘 HR” 的 ML 模型。如果该模型具有歧视性,则会雇用更少的女性申请人。即使雇用的女性申请人的成功率更高,在模型处理输入数据后,来自受歧视人群的样本也会减少,因此,考虑就业的女性也会减少。

网络异常,图片无法展示
|


数据有限

在某些情况下,从特定人群中收集的数据是有限的,例如,当只收集了有限数量的学习数据时,或者当受歧视人群的某些特征缺失时。这可能导致模型不足以预测该人群。

如何避免模型偏差并确保公平?

不幸的是,没有神奇的解决方案。事实上,ML 公平性是一个复杂的问题。首先,对于公平性定义或指标没有共识。此外,防止不公平做法的关键是一个过程,而不是具体的行动项目。


采取积极的方法

在每个 ML 项目的研究阶段,从一开始就考虑到 ML 的公平性。

  • 为公平设定具体目标
  • 考虑 ML 项目的目标受众
  • 确定可能受到歧视的各个方面
  • 设计用于反映公平问题和目标的指标和算法
  • 查找过去的其他类似场景和陷阱

四个主要的剖面处理

数据挖掘

在数据挖掘步骤中,根据一个或多个受保护的属性来衡量数据分布是很重要的。应该优先定义数据代表性的指标,并确保有足够的数据和标签供少数群体使用。

注意你的目标。子组的期望分布不一定需要与总体相对应。在许多情况下,提高模型在少数子组上的性能需要对该组进行过采样

模型训练

在你的团队的模型中,定义公平问题和偏见的指标和测量方法。在模型训练期间使用这些措施。在训练期间遵循这种做法可以让您选择超参数以实现公平性和性能的良好平衡。

后期处理

测量测试数据集的公平性指标!比较不同子组的预测值分布。此外,比较不同保护组的性能指标(例如:准确性、混淆矩阵、RMSE 等)。

监控服务

在现实世界中,衡量和监控生产中的公平性指标至关重要。这一步非常重要,因为它将能够快速检测和缓解公平问题(例如:关于公平的预测漂移)。您可以使用许多工具来降低 ML 偏见的风险并确保公平,包括 Aporia 的自定义 ML 监控解决方案


通过 ML 模型监控检测偏差并确保公平

构建机器学习模型通常需要使用泛化技术。 这些推论技术通常可以提高模型的性能,但是,有时它会依赖于宗教、种族、性别、残疾和政治取向等特征,从而牺牲某些人群的利益。 作为数据科学家,我们有责任监控我们的模型并在必要时对其进行改进,以防止这种情况发生。 因此,下次将机器学习模型部署到生产环境时,请记住考虑偏见和公平性?


相关文章
|
机器学习/深度学习 人工智能 算法
人工智能伦理:机器学习中的数据偏见与公平性挑战
在机器学习领域,算法的公正性与透明度日益成为社会关注的焦点。本文深入探讨了AI系统在处理数据时可能遇到的偏见问题及其对社会公平性的影响。通过分析具体案例和最新研究成果,本文揭示了数据偏见如何影响算法决策,并提出了减轻这些偏见的策略。文章呼吁开发更加负责任的AI系统,以促进技术与社会价值的和谐共存。
|
机器学习/深度学习 数据采集 监控
探索机器学习中的数据偏见及其影响
在机器学习领域,数据偏见是一个日益受到关注的问题。本文通过分析数据偏见的来源、表现和对模型性能的影响,旨在揭示如何识别和减少这种偏见。文章首先定义了数据偏见并探讨了其产生的原因,接着通过案例分析了偏见对模型决策的具体影响,最后提出了几种减轻数据偏见的策略。研究指出,虽然完全消除数据偏见是极其困难的,但通过合理的数据处理和算法设计可以显著降低其负面影响。
|
机器学习/深度学习 算法
机器学习(五)如何理解机器学习三要素
机器学习(五)如何理解机器学习三要素
204 0
|
机器学习/深度学习 人工智能 监控
机器学习模型可解释性实践指南(Aporia)
随着越来越多的企业采用机器学习来支持其决策过程,充分了解 ML 模型如何进行预测至关重要。构建和扩展模型生产已不足以改善结果。这些模型需要透明才能理解它们为什么做出特定的预测。
|
机器学习/深度学习 资源调度 JavaScript
机器学习概念漂移检测方法(Aporia)
目前,有多种技术可用于机器学习检测概念漂移的方法。熟悉这些检测方法是为每个漂移和模型使用正确度量的关键。 在本文章中,回顾了四种类型的检测方法:统计、统计过程控制、基于时间窗口和上下文方法。
|
机器学习/深度学习 数据采集 存储
机器学习模型监控(Aporia)(下)
机器学习模型监控 什么是机器学习 (ML) 模型监控? 机器学习监控是一组用于观察生产中的 ML 模型并确保其性能可靠性的技术。 ML模型通过观察数据集中的示例进行训练,并将代表模型在训练任务中表现的好坏的错误最小化。
|
机器学习/深度学习 数据采集 监控
机器学习模型监控(Aporia)(上)
机器学习模型监控 什么是机器学习 (ML) 模型监控? 机器学习监控是一组用于观察生产中的 ML 模型并确保其性能可靠性的技术。 ML模型通过观察数据集中的示例进行训练,并将代表模型在训练任务中表现的好坏的错误最小化。
|
机器学习/深度学习 监控 Python
机器学习中的概念漂移(Aporia)
随着机器学习模型成为自动化和预测任务越来越流行的解决方案,许多科技公司和数据科学家采用了以下工作范式:数据科学家负责解决特定问题,他们会得到可用相关数据的快照,他们致力于训练模型来解决它。 一旦模型经过测试,它就会进入生产阶段。最终,模型的性能开始下降,这通常是由于概念漂移。 概念漂移是指目标变量(模型试图预测的内容)的统计特性随时间以不可预见的方式发生变化的情况。
|
机器学习/深度学习 数据采集 监控
机器学习可观察性 VS 机器学习监控(Aporia)
当您向机器学习 (ML) 工程师询问他们面临的最大挑战时,监控和可观察性通常是最重要的。 造成这种情况的原因有很多,包括数据漂移、概念漂移、偏见和公平以及对抗性输入等等。 发现问题通常是解决问题的第一步,这就是监控和可观察性的用武之地。
|
机器学习/深度学习 人工智能 算法
AI学习笔记之——如何理解机器学习(Machine Learning)
前面虽然介绍了概率和贝叶斯网络,但是还是没有正式介绍AI中最重要的算法——机器学习。如果说概率论是机器学习的基石,那么机器学习算法和理论就是支撑整个AI系统的支柱。
1714 0