如何管理人工智能风险和安全?

简介: 在大多数组织中,人工智能模型是“黑匣子”,只有数据科学家知道人工智能到底做什么。这可能会给组织带来重大风险。

大型、敏感的数据集经常被用于训练AI模型,从而产生隐私和数据泄露风险。人工智能的使用增加了组织的威胁向量,并扩大了其攻击面。人工智能进一步为良性错误创造了新的机会,对模式和业务结果产生不利影响。

0814a2b113b8b1d94a8290abc0b2939c732b30.jpg

不了解的风险无法减轻。Gartner最近对首席信息安全官的一项调查显示,大多数组织没有考虑到人工智能带来的新的安全和业务风险,或者他们必须采取新的控制措施来降低这些风险。人工智能需要新型风险和安全管理措施以及缓解框架。

以下是安全和风险领导者应该关注的五大优先事项,以有效管理其组织内的人工智能风险和安全:

1、捕捉AI暴露程度
机器学习模型对大多数用户来说是不透明的,并且与一般的软件系统不同,它们的内部工作原理甚至连最熟练的专家都不知道。数据科学家和模型开发人员通常理解他们的机器学习模型试图做什么,但他们不能总是破译模型处理数据的内部结构或算法手段。

这种理解能力的缺乏严重限制了组织管理AI风险的能力。人工智能风险管理的第一步是列出组织中使用的所有人工智能模型,无论它们是第三方软件的组件、内部开发或通过软件即服务应用程序访问。这应该包括识别各种模型之间的相互依赖关系。然后根据运营影响对模型进行排序,并考虑到风险管理控制可以根据确定的优先级逐步应用。

一旦模型被列出,下一步就是使它们尽可能的可解释或可解释性。“可解释性”意味着产生细节、原因或解释的能力,为特定的受众阐明模型的功能。这将为风险和安全管理者提供管理和减轻由模型结果带来的业务、社会、责任和安全风险的环境。

2、通过人工智能风险教育活动提高员工意识
员工意识是人工智能风险管理的一个重要组成部分。首先,让所有参与者,包括CISO、首席隐私官、首席数据官以及法律和合规官,重新调整他们对AI的心态。他们应该明白,人工智能“不像任何其他应用程序”——它会带来独特的风险,需要特定的控制来减轻此类风险。然后,与业务利益相关者联系,以扩大对需要管理的AI风险的认识。

与这些利益相关者一起,确定跨团队和随着时间的推移构建AI知识的最佳方式。例如,看看是否可以在企业的学习管理系统中添加一门关于基本AI概念的课程。与应用程序和数据安全部门合作,帮助在所有组织成员中培养AI知识。

3、通过隐私计划消除人工智能数据暴露
根据Gartner最近的一项调查,隐私和安全一直被视为人工智能实现的主要障碍。采用数据保护和隐私程序可以有效地消除AI内部和共享数据的暴露。

有一系列方法可以用于访问和共享基本数据,同时仍然满足隐私和数据保护要求。确定哪种数据隐私技术或技术组合,对组织的特定用例最有意义。例如,调查诸如数据屏蔽、合成数据生成或差分隐私等技术。

在向外部组织导出或导入数据时,应满足数据隐私要求。在这些场景中,像完全同态加密和安全多方计算等技术,应该比保护数据不受内部用户和数据科学家的影响更有用。

4、将风险管理纳入模型运营
AI模型需要特殊用途的流程作为模型操作或ModelOps的一部分,以使人工智能可靠且高效。随着环境因素的不断变化,AI模型必须持续监测业务价值泄漏和不可预测的(有时是不利的)结果。

有效的监控需要对AI模型的理解。专门的风险管理流程必须成为ModelOps的一个组成部分,以使AI更值得信任、准确、公平,并对对抗性攻击或良性错误更有弹性。

控制措施应该持续应用——例如,贯穿模型开发、测试和部署以及持续运营的整个过程。有效的控制将检测到恶意行为、良性错误和AI数据或模型的意外变化,这些变化会导致不公平、损坏、不准确、模型性能和预测不佳,以及其他意想不到的后果。

5、采用人工智能安全措施应对对抗性攻击
检测和阻止对人工智能的攻击需要新的技术。对AI的恶意攻击可能导致重大的组织损害和损失,包括财务、声誉或与知识产权、敏感客户数据或专有数据相关的数据。与安全部门合作的应用程序负责人必须在他们的AI应用程序中添加控制,以检测异常数据输入、恶意攻击和良性输入错误。

围绕AI模型和数据实施一整套传统的企业安全控制,以及针对AI的全新完整性措施,如容忍对抗性AI的训练模型。最后,使用欺诈、异常检测和机器人检测技术,防止AI数据中毒或输入错误检测。​


本文转载自51CTO,本文一切观点和机器智能技术圈子无关。原文链接
免费体验百种AI能力以及试用热门离线SDK:【点此跳转】

相关文章
|
2天前
|
传感器 人工智能 监控
建筑施工安全 “智能防线”!AI 施工监测系统,全方位破解多场景隐患难题
AI施工监测系统通过多场景识别、智能联动与数据迭代,实现材料堆放、安全通道、用电、大型设备及人员行为的全场景智能监管。实时预警隐患,自动推送告警,联动现场处置,推动建筑安全从“人工巡查”迈向“主动防控”,全面提升施工安全管理水平。
37 15
|
2天前
|
人工智能 安全 网络安全
从不确定性到确定性,“动态安全+AI”成网络安全破题密码
2025年国家网络安全宣传周以“网络安全为人民,靠人民”为主题,聚焦AI安全、个人信息保护等热点。随着AI技术滥用加剧,智能化攻击频发,瑞数信息推出“动态安全+AI”防护体系,构建“三层防护+两大闭环”,实现风险前置识别与全链路防控,助力企业应对新型网络威胁,筑牢数字时代安全防线。(238字)
|
2天前
|
人工智能 安全 网络安全
人工智能 安全 Ubuntu
120 0
|
17天前
|
人工智能 运维 安全
|
1月前
|
人工智能 安全 测试技术
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
113 2
RidgeBot 5.4.5 - 基于 AI 的主动安全验证平台
|
1月前
|
人工智能 安全 算法
四位大咖齐聚 《AI 进化论》第二期揭秘专有云 OS 安全信任基石重构之道
《AI 进化论:智算时代操作系统的破局之路》系列直播第二期「重构专有云操作系统安全信任基石」将于 8 月 13 日 14:00 开始。
|
1月前
|
云安全 机器学习/深度学习 人工智能
阿里云安全Black Hat技术开源大揭秘,AI安全检测的工程化实践
阿里云安全 LLMDYara框架开源核心思路,赋能云安全产品!
|
1月前
|
人工智能 安全 算法
龙蜥专家等共同揭秘专有云 OS 安全信任基石重构之道 |《AI 进化论》第二期
探讨如何通过 TEE、国产 OS 与芯片协同、国密算法、SLSA/SBOM 等技术,从底层操作系统重构信任,帮助用户应对复杂的云上威胁。
|
2月前
|
存储 设计模式 人工智能
AI Agent安全架构实战:基于LangGraph的Human-in-the-Loop系统设计​
本文深入解析Human-in-the-Loop(HIL)架构在AI Agent中的核心应用,探讨其在高风险场景下的断点控制、状态恢复与安全管控机制,并结合LangGraph的创新设计与金融交易实战案例,展示如何实现效率与安全的平衡。
380 0