关于可解释的人工智能,人们需要了解的四件事

简介: 可解释的人工智能是通过人工智能算法解释它是如何以人类可以破译的方式得出结论的想法。这将面临一个众所周知的“黑盒问题”,其中人工智能算法可以确定某些内容,但无法提供导致这些结果的因素的详细信息。

人工智能(AI)的能力无疑令人震惊,这让许多人想知道它是如何做到的?,而这个问题的答案推动了可解释人工智能的概念,有时候称为XAI。


许多人喜欢参与有关可解释人工智能的讨论,但他们往往没有提出能够实现的可行性想法。


什么是可解释的人工智能?


可解释的人工智能是通过人工智能算法解释它是如何以人类可以破译的方式得出结论的想法。这将面临一个众所周知的“黑盒问题”,其中人工智能算法可以确定某些内容,但无法提供导致这些结果的因素的详细信息。那么,人们怎么认为他们可以相信人工智能算法所说的内容呢?


实现可解释人工智能的目标是一项令人钦佩的必要壮举,但这并不简单。在将可解释的人工智能变成现实之前,行业人士需要认识到以下四件事情。


1.解释可能不是建立信任的最佳方式


人们能够理解的是,如果人工智能可以自我解释,用户以及使用人工智能做出决策的企业会相信人工智能更值得信赖。但是一些人认为,努力实现可解释的人工智能并不是建立增强信任的最佳途径。相反,测试和分析可以给出所寻求的答案。


这是因为人工智能用来得出结论的方法可能非常复杂,即使提供了解释,人们也无法理解。但是,当人工智能用户能够测试和分析人工智能所做的决策,并确保它们显示出足够的一致性,以显示系统按预期工作时,就会产生信任。


可解释的人工智能仍然是有用的,但是人们不应该把它视为最终解开人工智能的奥秘。


2.可解释的人工智能与应用程序设计直接相关


对于可解释的人工智能而言,另一件至关重要的事情是,与大多数人认为的相反,人们不需要将人工智能视为获得答案的起点。相反,使用可解释的人工智能取得进展意味着从应用程序级别开始。


例如,用于促进贷款审批流程的人工智能应用程序能够以这样的方式运行,即允许人们采取人工智能工具的每个步骤以及通过这些操作创建的路径。然后,人们可能会深入挖掘并查看应用程序的哪些特征触发了批准或拒绝。


采用这种方法并不一定能为给定的应用程序带来完全可解释的人工智能。但是,记住可解释性对于参与构建使用人工智能的应用程序的人来说是一个很好的策略。


3.强化学习比人们想象的要复杂得多


人工智能算法以多种方式学习。这是一种有监督的学习,它涉及人工智能从预先分类的数据变得更智能,以便查看和分类。或者,当人工智能算法仔细检查输入数据以找到其中的模式时,就会发生无监督学习。最后,有一种被误解的第三种人工智能学习风格称为“强化学习”,也有一些人称之为“自我学习”。


这种算法根据收到的反馈,将执行的操作理解为可取或不可取。人们需要关注由它所做的事情引起的响应,然后从尝试和错误的方法中学习。


不幸的是,考虑到复杂任务的成功都是由所有行动的总和造成的,因此加强人工智能并不是那么简单。考虑到这一点,人们必须考虑到一些使增强人工智能有效的必要条件。例如,系统必须提供具体的激励。但是,不同的场景有不同的相关期望动作。


此外,任何适当使用强化学习的系统都必须考虑环境中的每个可用变量。但是,当人们考虑到许多现实问题的不可否认的复杂性时,很容易看出这是一个非常耗时的步骤。


当人们努力实现可解释人工智能的目标时,他们需要记住人工智能算法以多种方式学习。此外,由于所有变量都在发挥作用,强化学习尤其困难。整理出描述强化学习算法得出结论的所有细节可能是一个过于漫长的过程。


4.所有关于可解释的人工智能的对话应包括道德伦理部分


当人们谈论人工智能时,道德伦理问题经常发挥作用。当使用人工智能处理可能导致伤亡的事件时,尤其可能发生这种情况,例如加强国防力量。尽管人工智能机器最终可能比制造它们的人更聪明,但是人类仍然有责任设计出尽可能符合道德规范的人工智能机器。


有些人甚至争辩说,实现可解释人工智能的里程碑意味着人们将机器保持在比人类更高的标准。毕竟,当人们要求充分解释所做出的决定以及如何做出决定的时候,做到这些事情往往是不可能的。转瞬即逝的想法和原始欲望是两种能让人们在意识原因之前就开始行动的因素。


但是,是什么让机器实施道德的行为与非道德的行为?几乎可以肯定的是,编程已经开始发挥作用,但它很可能无法说明整个过程。因此,尽管让人工智能解释自己是至关重要的,但也应该对人工智能合乎道德更多的关注——即使在可解释性出现之前。


发展之路还很漫长


这份清单强调了许多人喜欢参与讨论有关可解释人工智能的一些原因,但他们往往没有提出如何实现的想法。


尽管如此,这仍是一个有价值的目标,随着人们逐渐开发和采用人工智能,并用它实现新事物。

相关文章
|
7天前
|
机器学习/深度学习 数据采集 人工智能
【AI 场景】解释使用人工智能诊断医学图像中疾病的过程
【5月更文挑战第4天】【AI 场景】解释使用人工智能诊断医学图像中疾病的过程
|
机器学习/深度学习 人工智能 搜索推荐
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
181 0
ML 模型不等于“黑盒”:explainable AI 可解释的人工智能
|
机器学习/深度学习 人工智能 算法
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
按照固有思维方式,人们总以为人工智能是一个莫测高深的行业,这个行业的人都是高智商人群,无论是写文章还是和人讲话,总是讳莫如深,接着就是蹦出一些“高级”词汇,什么“神经网络”,什么“卷积神经”之类,教人半懂不懂的。尤其ChatGPT的风靡一时,更加“神话”了这个行业,用鲁迅先生形容诸葛武侯的话来讲:“多智而近妖”。 事实上,根据二八定理,和别的行业一样,人工智能行业内真正顶尖的天才也就是20%,他们具备真正的行业颠覆能力,可以搞出像ChatGPT这种“工业革命”级别的产品,而剩下的80%也不过就是普通人,每天的工作和我们这些人一样,枯燥且乏味,而之所以会出现类似“行业壁垒”的现象,是因为这个行
人工智能机器学习底层原理剖析,人造神经元,您一定能看懂,通俗解释把AI“黑话”转化为“白话文”
|
机器学习/深度学习 人工智能 监控
在当今的人工智能环境中,什么是可解释AI?
可解释AI,顾名思义,有助于描述一个AI模型、其影响和潜在的偏见。其还在描述模型的准确性、公平性、透明度和人工智能驱动决策过程的结果方面发挥着作用。
166 0
在当今的人工智能环境中,什么是可解释AI?
|
机器学习/深度学习 人工智能 自然语言处理
可解释的人工智能:使商业人工智能的采用可信
对许多组织而言,由于缺乏透明度,人工智能仍然是谜团重重,人们不敢将其投入生产中。但是需求,进步和新兴的标准可能很快会改变这一切。
222 0
|
人工智能 云计算
【重磅】人工智能等四大行业独角兽IPO即报即审(附 26 家企业名单)再见AI黑匣子:研究人员教会AI进行自我解释
28日下午,监管层对券商作出指导:若有生物科技、云计算、人工智能、高端制造在内的四个行业“独角兽”,应立即向发行部报告,符合相关规定者可以实行“即报即审”。这意味着将会直接加速“独角兽”企业国内上市步伐,下一个BAT呼之欲出。
5398 0
|
3天前
|
机器学习/深度学习 人工智能 自然语言处理
ElasticON AI 2023大会回顾:深入探索 Elasticsearch 与人工智能的融合之路
ElasticON AI 2023大会回顾:深入探索 Elasticsearch 与人工智能的融合之路
16 0
|
5天前
|
机器学习/深度学习 人工智能 算法
人工智能(AI)中的数学基础
人工智能(AI)是一个多学科交叉的领域,它涉及到计算机科学、数学、逻辑学、心理学和工程学等多个学科。数学是人工智能发展的重要基础之一,为AI提供了理论支持和工具。
12 1