聊一聊可解释的反欺诈AI

简介: AI-ML驱动决策的算法模型正如一个“黑盒”,我们只能了解结构,却无法洞察其运行原理,更无法判断其给出结果的可靠性。

a36cb502554fb8ebf198403aea2f1bcf911fbd.png

近年来,人工智能飞速发展,并作为强大的创新工具广泛应用于各行各业的无数用例中。然而,巨大的责任通常需要巨大的能力。多亏了AI和机器学习,反欺诈技术变得愈加精确并且比以往发展地更加快速。实时的评分技术可以使商业领导立即分辨出欺诈行为。然而,AI-ML驱动决策的使用也引起了对透明度的关注。并且,当ML模型出现在高风险环境中时,对可解释性的需求也就出现了。

随着由机器制定的关键决策的数量不断增加,可解释性和可理解性也变得越来越重要。技术研究员Tim Miller表示:可理解性是人类能够理解决策原因的程度。因此,发展ML模型的可解释性是至关重要的,它有助于可信任自动化解决方案的制定。

开发人员、消费者以及领导者都应该了解防诈骗决策的意义和过程。但是参数稍微多一些的ML模型对大部分人来说是都难以理解的。然而,可解释AI研究社区一再声明:由于可理解性工具的发展,黑盒模型不再是黑盒。在这些工具的帮助下,用户能够理解并更加信任这些用来做出重要决策的ML模型。

事物的SHAP
SHAP (SHapley Additive exPlanations) 是如今最为常用的模型不可知论解释工具之一。它从合作博弈中计算Sharply值,均匀分担特征的影响。当我们基于表格数据并使用集成方法来打击欺诈时,SHAP的TreeExplainer算法提供了在多项式时间里获取的局部解释的机会。使用这种工具,仅有近似值也是可行的。与基于神经网络的解释相比,这是一个巨大的进展。

白盒通常是指计算欺诈程度分值的规则引擎。就本质而言,黑盒和白盒得出的结果不同,因为黑盒是根据机器从数据中学习的内容得出结果,而白盒是根据预定义的规则来得出分值。我们可以根据这些差异来双向发展。例如,根据黑盒模型发现的欺诈环来调整规则。

黑盒测试与SHAP结合,可以帮助我们理解该模型的全局行为,并揭示该模型用于检测欺诈活动的主要特征。同时,也可以揭示该模型中的不良偏差。例如,某个模型可能会歧视特定的人口统计数据。它可以通过全局模型解释来检测此类情况,从而防止不准确预测的出现。

此外,它还可以帮助我们理解模型做出的单个预测。在ML模型调试的过程中,数据科学工作者可以独立地观察每个预测,并以此来解释它。它的特征贡献可以帮助我们察觉该模型正在做什么,我们可以从这些输入中进行进一步的开发。通过利用SHAP,最终用户不仅可以获得模型的基本特征,还可以了解每个特征(在哪个方向)是如何影响模型输出欺诈概率的。

置信系数
最后,在SHAP的帮助下,通过获取对成功模式的信任,置信可以从客户那里获得。一般来说,如果我们理解一个产品是如何运行的,那么我们就会对它更加有信心。人们不喜欢自己不理解的东西。在解释工具的帮助下,我们可以查看黑盒,更好地理解和信任它。并且,通过理解模型,我们还可以对它进行不断的改进。

可解释的增强器(EBM)是使用SHAP梯度增强ML模型的一个替代方案。这是InterpretML(微软的人工智能公司)的旗舰产品,是一个所谓的玻璃盒子。玻璃盒子这个名字来源于这样一个事实:由于它的结构,它的本质是可解释的。根据原始文档,“EBM通常与最先进的黑盒模型一样准确,同时还保持完全的可解释性。虽然EBM的训练速度比其他现代算法慢,但它在预测时,却非常的紧凑和快速。”局部可解释的模型——模型不可知解释(LIME)也是一个可以用来进行黑盒解释的好工具。然而,它更受非结构化数据模型的欢迎。

通过利用上述工具以及透明的数据点,组织可以放心地做出决策。所有的利益相关者必须知道他们的工具是如何得出最佳结果的。了解黑盒ML以及与之相结合的各种技术可以帮助组织更好地了解它们是如何得出结果,从而帮助实现业务目标的。

点评
对于人来类说,未知的往往是可怕的,更是不可信任的。AI-ML驱动决策的算法模型正如一个“黑盒”,我们只能了解结构,却无法洞察其运行原理,更无法判断其给出结果的可靠性。尤其是在防欺诈领域这种高风险环境中,AI及ML技术的应用变得更加困难。而可解释性工具的引入,使得“黑盒”逐渐变得透明,很大程度上打消了用户的怀疑与担忧,同时也为“黑盒”本身的发展创造了条件。


本文转载自51CTO,本文一切观点和机器智能技术圈子无关。原文链接
免费体验百种AI能力以及试用热门离线SDK:【点此跳转】

相关文章
|
6月前
|
机器学习/深度学习 人工智能 搜索推荐
【AI 初识】解释推荐系统的概念
【5月更文挑战第3天】【AI 初识】解释推荐系统的概念
|
6月前
|
机器学习/深度学习 数据采集 人工智能
【AI 场景】解释使用人工智能诊断医学图像中疾病的过程
【5月更文挑战第4天】【AI 场景】解释使用人工智能诊断医学图像中疾病的过程
|
6月前
|
人工智能 自然语言处理 自动驾驶
大模型领域急需建立可解释AI理论
【1月更文挑战第21天】大模型领域急需建立可解释AI理论
56 2
大模型领域急需建立可解释AI理论
|
机器学习/深度学习 人工智能 搜索推荐
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
253 0
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
|
机器学习/深度学习 人工智能 编解码
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
深度视觉模型在高风险领域有着广泛的应用。因此它们的黑匣子性质目前吸引了研究界的极大兴趣。论文在《可解释的人工智能》中进行了第一次调查,重点是解释深度视觉模型的方法和指标。涵盖了最新技术的里程碑式贡献,论文不仅提供了现有技术的分类组织,还挖掘了一系列评估指标,并将其作为模型解释的不同特性的衡量标准进行整理。在深入讨论当前趋势的同时,论文还讨论了这一研究方向的挑战和未来途径。
逐步揭开模型面纱!首篇深度视觉建模中的可解释AI综述
|
机器学习/深度学习 人工智能 算法
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
按照固有思维方式,人们总以为人工智能是一个莫测高深的行业,这个行业的人都是高智商人群,无论是写文章还是和人讲话,总是讳莫如深,接着就是蹦出一些“高级”词汇,什么“神经网络”,什么“卷积神经”之类,教人半懂不懂的。尤其ChatGPT的风靡一时,更加“神话”了这个行业,用鲁迅先生形容诸葛武侯的话来讲:“多智而近妖”。 事实上,根据二八定理,和别的行业一样,人工智能行业内真正顶尖的天才也就是20%,他们具备真正的行业颠覆能力,可以搞出像ChatGPT这种“工业革命”级别的产品,而剩下的80%也不过就是普通人,每天的工作和我们这些人一样,枯燥且乏味,而之所以会出现类似“行业壁垒”的现象,是因为这个行
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
|
机器学习/深度学习 人工智能 自然语言处理
何以为猫?可解释AI从语义层面理解CNN的识别机制
何以为猫?可解释AI从语义层面理解CNN的识别机制
107 0
|
机器学习/深度学习 人工智能 算法
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展(3)
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展
201 0
|
人工智能 算法 计算机视觉
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展(2)
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展
244 0
|
机器学习/深度学习 人工智能 编解码
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展(1)
AAAI/CVPR论文详解 | 万字长文了解可解释AI工具及技术的最新进展
184 0