人工智能(AI)技术如今正在广泛应用。人工智能治理之所以重要,是因为人工智能可以获得更大的回报,但面临很高的风险,如果做错其后果会非常严重。
组织必须从风险管理的角度进行治理。人工智能的主要风险因素包括以下几个方面:
- 可以防止人工智能侵犯人们的隐私吗?
- 能否消除人工智能驱动的应用程序中可能产生的社会和经济偏见?
- 能否确保人工智能驱动的过程对于人们完全透明、可解释和可理解?
- 是否可以设计人工智能算法,以便始终清楚地表明人类对其算法结果的责任和义务?
- 是否可以将道德和道德原则纳入人工智能算法中,以便它们将人类的全部考虑因素权衡可能会导致生死攸关的决定?
- 是否可以自动使人工智能应用程序与利益相关者的价值观保持一致,或者至少在特殊情况下获得抵御的能力,从而防止恶意机器人在自主决策场景中出现?
- 在不确定性太大而无法证明自主行动正当性的情况下,能否遏制人工智能驱动的决策?
- 是否可以制定故障保护程序,以便当人工智能自动化应用程序达到其能力极限时,人类可以收回控制权?
- 即使需要动态适应不断变化的环境,能否确保人工智能驱动的应用程序以一致、可预测的方式运行,而没有意外的副作用?
- 能否保护人工智能应用程序免受旨在利用其底层统计算法漏洞的敌对攻击?
- 当环境数据与受过训练的环境有很大出入时,是否可以设计优雅地而不是灾难性地失败的人工智能算法?
基于软件的流水线自动化的人工智能治理
如果在基于软件的开发和运营(DevOps)流程中没有适当地控制适当的控件,那么人工智能治理将毫无用处。
人工智能应用程序是由数据科学家、数据工程师、数据管理员和其他人组成的团队在复杂的工作流程中构建、培训、部署和管理的。为了满足这一需求,许多组织正在将人工智能治理控制构建到其MLOps过程中。本质上,这需要策略驱动的流程自动化,这些流程管理数据、统计模型、元数据,以及用于构建、培训和部署人工智能应用程序的其他构件。它还需要工具来监视人工智能应用程序在其生命周期中的使用、行为和结果。
任何人工智能驱动过程的典型风险是不知道组织是否可以信任一个已部署的统计模型来准确可靠地完成分配的任务。如果一个统计模型的预测适合度下降到无法完成其指定任务(如识别人脸、理解人类语言或预测客户行为)的程度,那么对于构建和部署它的组织来说,这基本上是无用的。
因此,人工智能治理的核心功能是模型保证。这是一种确定人工智能应用程序的机器学习模型是否能够预测适合其分配任务的能力,如果不适合,则将其重新放回原处。
然而,预测精度可能是一个难以保证的性能指标。人工智能的统计模型通常以人工神经网络的形式实现,可能是如此的复杂和神秘,以至于它们掩盖了它们实际上是如何驱动自动推理的。同样令人担忧的是,基于统计的应用程序可能会无意中混淆其自动决策可能产生的任何偏见和其他不利后果的责任。此外,这些概率模型可能很少被评估和重新训练,导致曾经适合特定目的的模型现在已经失去了预测能力。
在MLOps平台中嵌入人工智能模型保证
将业务押注在人工智能驱动流程上的组织必须考虑,是将模型保证作为其MLOps平台的一项嵌入式功能,还是从专注于这一令人兴奋的利基市场的初创供应商那里获得。
幸运的是,越来越多的数据科学DevOps环境提供了可靠的模型保证。这些工具的最新一代利用云原生基础设施来部署和管理稳定的人工智能模型流,并且代码构建一直到边缘。商业产品中的主要产品是:
- 谷歌云人工智能平台提供持续评估等模型质量保证功能,让数据科学家将模型预测与实际情况标签进行比较,以获得持续反馈,并优化模型精度。
- H2O.ai无人驾驶人工智能提供了丰富的模型质量保证功能。它支持分析一个模型是否会对不同的人口群体产生不同的不利结果,即使它的设计并没有考虑到这种结果。它可以自动监控已部署模型的预测衰减;为A/B测试建立替代模型的基准;以及在需要重新校准、重新培训和以其他方式维护模型以使其为生产做好准备时向系统管理员发出警报。
- Microsoft Azure机器学习MLOps可以通知机器学习生命周期中的事件并发送警报,例如实验完成、模型注册、模型部署和数据漂移检测。它可以监视机器学习应用程序的模型特定指标,并提供机器学习基础设施的监视和警报。它还可以根据新数据和其他操作和业务因素自动重新培训、更新和重新部署模型。
- Amazon SageMaker Model Monitor持续监视AWS Sagemaker云计算服务中的机器学习模型,检测诸如数据漂移之类的偏差,这些偏差会随着时间的推移降低模型性能,并警告用户采取补救措施,例如审核或再培训模型。可以安排监视作业按常规节奏运行,可以将摘要指标推送到Amazon CloudWatch以设置警报和触发器以采取纠正措施,并支持Amazon SageMaker支持的多种实例类型。
- Superwise的人工智能保证提供了一个实时平台,用于监控和维护已部署人工智能模型的准确性。它使涉众能够在部署的人工智能模型产生负面业务影响之前发现模型衰退和其他问题。它标记了模型的不精确性,这些误差源于人工智能模型的数据变化。它还可以捕捉到与模型部署到的业务环境中的变化相关联的不精确性。它为数据科学团队提供了前瞻性的建议,以采取人工操作来保持模型的准确性、公正性以及其他方面的适用性。它还可以自动执行一些纠正措施,以防止模型漂移到潜在的次优领域。
结论
虽然人工智能并不是公众的威胁,但现实情况是,可能会看到更多的司法管辖区加强了这项技术的监管规定。
随着人们进入20世纪20年代,从最好的和最坏的意义上讲,人工智能应用将是最具颠覆性的技术。如果扩散不受监控和控制,则错误的人工智能模型将给社会造成严重破坏。人工智能的某些风险来自技术特定构造中的设计限制。其他原因可能是由于对实时人工智能应用程序的运行时管理不足。还有其他一些可能是该技术难以理解的机器学习、深度学习和人工智能依赖的其他统计模型的“黑盒”复杂性所固有的。
为了减轻这些风险,组织将越来越多地要求在每个部署场景中对这些模型的性能进行自动化治理。