时代聚焦AI安全——可解释性

简介: 随着人工智能的发展,越来越多的人开始关注人工智能的安全问题。今年的NIPS多集中人工智能安全上,作者列举了在会议上出现的解决人工智能安全问题的比较不错的论文。

fce99ee14b4c9e2de834bcd60d2b24d618e47413

今年的NIPS多集中在人工智能安全上,此外精彩的部分还有凯特·克劳福德关于人工智能公平性问题上被忽视的主题演讲、ML安全研讨会、以及关于“我们是否需要可解释性?”可解释ML讨论会辩论

值校准文件

逆向奖励设计是为了解决RL代理根据人类设计的代理奖励函数推断出人类的真实奖励函数的一种设计。与反强化学习(IRL不同,它可以让代理人从人的行为推断出奖励函数。论文中提出了一个IRD方法,假设人类选择一个可以导致训练环境中正确行为的代理奖励,代理人就奖励函数的不确定性遵循风险规避策略,模拟真实奖励的不确定性。

aa1676400d176dca7179a1d0cd427b5fc505037e

尽管目前还不清楚它们将如何推广到更复杂的环境,但是这篇论文中关于如何避免某些副作用和阻止奖励黑客行为的观点还是有些令人备受鼓舞的。这种方法也有可能过于规避一些新事物,但是在这种环境下看到一些安全探索的方法是非常棒的。

重复反向RL是指推导出包含安全标准的固有人类偏好的问题,并在许多任务中保持不变的。每个任务的奖励功能是任务不变内在奖励(代理人未观察到的)和特定任务奖励(代理人观察到的)的组合。这种多任务设置有助于解决反强化学习(IRL)中的可识别性问题,其中不同的奖励功能可以产生相同的行为。

86ae3579f966eb4f973ec785f064052ac01d4bd9

作者提出了一种算法来推断内在奖励,同时最大限度地减少代理人犯错误的次数。他们证明了:“主动学习”案例的错误数量有上限,在错误数量的上限内,代理可以选择任务。如果超出这个错误数量的上限,则代理人无法选择任务。虽然它仍然存在很多人类难以解释的现象,但是综合来看,让代理人选择它所训练的任务似乎是个好主意。

来自人类偏好的深度RL(Christiano等人)是指利用人类反馈来教授深度RL代理人理解关于人类可以评估但可能无法证明的复杂事物(例如后空翻)。人类创造了代理行为的两个轨迹片段,并选择出哪一个更接近目标,这种方法可以非常有效地利用有限的人类反馈,使代理人学习更复杂的事物(如MuJoco和Atari所示)。

37f594b05cbc5ba5f926176cbe287577f8e74261

分散式多智能体RL的动态安全可中断性(EI Mhamdi等人)将安全可中断性问题推广到多智能体设置。不可中断的动态可以出现在任何一组代理人中,比如如果代理B收到代理A的中断影响并因此被激励以防止A被中断,则可能发生这种情况。多智能体定义的重点在于当存在中断的情况下保持系统动态性,而不是收集在多智能体环境中难以保证的最优策略。

Aligned AI研讨会

这场研讨会上有很多很有见解的会谈比如Ian Goodfellow的“对齐AI的对抗鲁棒性”和Gillian Handfield的“不完全契约和AI对齐”。

Ian提出的ML安全性对于长期的AI安全至关重要。敌对例子的有效性不仅受当前的ML系统(例如自驾车)的短期视角的影响,还受一些水平不高的参与人的影响。从长远角度来看,调整高级代理的价值也是一个坏消息,由于古德哈特定律,他可能会无意中寻找奖励函数的对抗性例子。因为敌对的例子会干扰代理人的判断,所以依靠代理人对环境或人类偏好的不能确保结果的准确性。

8c86ed4507e0d95db8ee541182af232b70dc9363

Gillian从经济学的角度来看待人工智能安全,将人造智能的目标与人类的合同的设计相对比。与造成合同不完整相同的问题(设计师无法考虑所有相关的偶然事件或者精确地制定所涉及的变量,以及激励当事方游戏系统)导致人为代理人的副作用和奖励黑客行为。

d6b05fabe9f965669921869e5d00126e03ce1481

谈话的核心问题是如何利用不完全契约理论的见解来更好地理解和系统地解决AI安全中的规范问题,这是一个非常有趣的研究方向,客观规格问题似乎比不完整的合同问题更难。

人工智能系统的可解释性

作者在可解释的ML讨论会上就可解释性与长期安全性之间的关系进行了讨论,并探讨了何种形式的解释能够帮助在安全问题方面取得进展(相关幻灯片视频)。

副作用和安全探索问题将从识别对应于不可逆状态的表示(如“破碎”或“卡住”)中受益。虽然现有的关于神经网络表示的研究着重于可视化,但与安全有关的概念往往难以形象化。

解释特定的预测或决定的本地解释性技术对安全也很有用。我们可以监测出训练环境特殊的特征或者表示与危险状态接近的特征是否会影响代理人的决定。

解释能力在很多方面对安全是有用的。作为解释性问题的基础-安全性可以为解释能力做些什么,似乎还没有人弄明白。正如研讨会的最后一场辩论中所争论的那样,在ML社区里,一直在进行着一场对话,试图制定一个模糊的解释性思想-它是什么,我们是否还需要它,什么样的理解是有用的,等等。但是我们需要记住最重要的:解释欲望在某种程度上是由我们的系统易出错所驱动的-理解我们的AI系统如果100%稳健且没有错误,那么它就不那么重要了。从安全的角度来看,我们可以将解释性的作用理解为帮助我们确保系统安全。

对于那些有兴趣将解释性锤子应用于安全钉或处理其他长期安全问题的人,FLI最近宣布了一个新的补助计划,现在是AI领域深入思考价值取向的好时机。正如Pieter Abbeel在主题演讲结束时所说的那样:“一旦你建立了非常好的AI装置,你如何确保他们的价值体系与我们的价值体系保持一致?因为在某些时候,他们可能比我们聪明,它们实际关心的关于我们所关心的东西可能很重要。”

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《NIPS 2017 Report》

作者:Vikas Bhandary

译者:乌拉乌拉,审校:袁虎。

文章为简译,更为详细的内容,请查看原文文章

相关文章
|
4月前
|
传感器 人工智能 运维
拔俗AI巡检系统:让设备“会说话”,让隐患“早发现”,打造更安全高效的智能运维
AI巡检系统融合AI、物联网与大数据,实现设备7×24小时智能监测,自动识别隐患并预警,支持预测性维护,提升巡检效率5倍以上,准确率超95%。广泛应用于工厂、电力、交通等领域,推动运维从“被动响应”转向“主动预防”,降本增效,保障安全,助力数字化转型。(238字)
678 0
|
5月前
|
机器学习/深度学习 人工智能 资源调度
智能家居环境中的AI决策解释:实现以人为中心的可解释性——论文阅读
本文探讨智能家居中AI决策的可解释性,提出以人为中心的XAI框架。通过SHAP、DeepLIFT等技术提升模型透明度,结合用户认知与需求,构建三层解释体系,增强信任与交互效能。
403 19
智能家居环境中的AI决策解释:实现以人为中心的可解释性——论文阅读
|
5月前
|
传感器 人工智能 监控
建筑施工安全 “智能防线”!AI 施工监测系统,全方位破解多场景隐患难题
AI施工监测系统通过多场景识别、智能联动与数据迭代,实现材料堆放、安全通道、用电、大型设备及人员行为的全场景智能监管。实时预警隐患,自动推送告警,联动现场处置,推动建筑安全从“人工巡查”迈向“主动防控”,全面提升施工安全管理水平。
1025 15
|
5月前
|
人工智能 安全 网络安全
从不确定性到确定性,“动态安全+AI”成网络安全破题密码
2025年国家网络安全宣传周以“网络安全为人民,靠人民”为主题,聚焦AI安全、个人信息保护等热点。随着AI技术滥用加剧,智能化攻击频发,瑞数信息推出“动态安全+AI”防护体系,构建“三层防护+两大闭环”,实现风险前置识别与全链路防控,助力企业应对新型网络威胁,筑牢数字时代安全防线。(238字)
288 1
|
5月前
|
人工智能 安全 网络安全
阿里云亮相2025国家网安周 | 首次提出AI全栈安全
了解阿里云最新的AI安全产品技术
1529 1
人工智能 安全 Ubuntu
1303 0
|
5月前
|
人工智能 运维 安全
从“裸奔”到“金钟罩”:AI身份凭据安全的进化之路
构建身份权限安全,护航企业数据合规
1656 37
|
6月前
|
人工智能 安全 测试技术
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
246 2
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
|
6月前
|
人工智能 安全 算法
四位大咖齐聚 《AI 进化论》第二期揭秘专有云 OS 安全信任基石重构之道
《AI 进化论:智算时代操作系统的破局之路》系列直播第二期「重构专有云操作系统安全信任基石」将于 8 月 13 日 14:00 开始。
|
6月前
|
云安全 机器学习/深度学习 人工智能
阿里云安全Black Hat技术开源大揭秘,AI安全检测的工程化实践
阿里云安全 LLMDYara框架开源核心思路,赋能云安全产品!
2106 15

热门文章

最新文章