在《Platfrom for AI(PAI)可信AI解决方案》会议中,本次分享的主题是安全、可信、隐私增强的企业级AI。
本次分享会将围绕三个方面展开。
首先,用三个事例和事实介绍了在生活层面上和技术层面上可信AI面临的挑战。
然后,介绍构建AI需要满足的关键要素。
最后,阿里云PAI构建安全、可信的AI,提供的相应功能和未来展望。
一、可信AI面临的挑战
1、在生活层面上可信AI面临的挑战
现在我们在生活或者工作当中,其实越来越多的用到集成了AI能力的这些产品。但虽然它提升了我们生活的体验也提高了工作的效率,同时也发现这些AI产品在实际的应用过程当中依然存在一些问题。
第一个案例,国外的某个大型企业,他的一个健康聊天的机器人因为它的知识匮乏,导致用户在咨询健康问题的时候获得了一个不正确的建议,对用户的身体健康造成了影响,同时这个企业自己也承认,这一类健康的机器人是没有办法代替健康专家,这直接导致了用户对于这类用户产品的信任逐步降低。
第二个案例,在全球很多智能穿戴设备当中,我们去做一些问答类的咨询,其实给出来的推理结果往往都是有偏见的或者有错误的,这种情况其实也让消费者极大的对品牌产生不信任。
第三个案例,半语言模型在面对这种越域攻击甚至我们可以构造一些简单的指令,它就会把训练数据甚至在推理结果当中收藏的客户隐私信息暴露出来,这种情况,其实也是很多用户不可容忍的,所以这一系列的AI的安全问题,就导致用户和消费者不会再大规模的使用这些AI产品,也不会向周边同事朋友去推荐,所以对于企业来说如果要想大规模的推广或者是让AI大范围的落地,其实可信AI是不可避免,必须要解决的一个问题,为了要解决这个问题,我们国家从2022年开始就推出了一系列针对AI安全、AI相关的法律法规和相应的管理办法。
纵观全球,多个国家和地区也相继推出了相应的AI的标准和相应的AI的安全管理法案,其实大家都有一个共同目的就是希望通过这种方式能够约束我们的AI,能够遵循法律法规,AI的使用能够尊重社会功德和伦理道德。
2、从技术层面上可信AI面临的挑战
从技术层面,我们可以看到构建可信AI其实也存在着很多技术层面的挑战。
首先我们怎么保证训练数据是合规的,怎么保证在整个使用过程当中隐私数据不被泄露,怎么保证我们在后续推理的过程当中推理结果不存在偏见,是正确的公平的,怎么保证我们的模型在各个环境当中运行时都不会被盗窃不会被破坏。基于以上的政策指导和现在面临的可信AI的技术挑战双重的作用下,我们认为解决可信AI并不是一个单点的问题,是需要一个体系化的架构来解决的,是需要平台和客户协同共建共治才能实现可信的AI,所以在过去的一年当中,PAI平台在数据准备的阶段,在模型开发训练、部署、推理各个阶段都推出相应的可信AI的能力。
二、构建可信AI是需要满足四个关键的要素
第一、是我们要保证原始数据也就是数据集是安全合规的这样才能确保我们最终训练出来的AI模型能够更好的服务我们的用户。
第二、我们要保证整个的算法是可靠的不能存在偏见和错误。
第三、我们要保证AI模型无论部署在云上还是端上,无论部署在Linux、Atous系统还是安卓系统都是能得到安全的保证的。
第四、我们需还要选购相应的安全稳定的AI的基础设施。
三、阿里云PAI构建安全、可信的AI,提供的相应功能
1、数据安全本身是AI的基石
只有保证数据的安全合规,我们才能保证最终AI服务能够更好的带给我们用户更好的体验,能够满足安全合规的标准,所以PAI提供的数据检测和毒性清洗的能力可以帮助我们去识别数据集当中存在的超过20多项的不合规的内容,然后通过我们提供的Dzarruis组件可以一键清晰数据集,把最终干净的安全合规的数据存储到OSS系统中接下来我们可以基于干净的安全合规的数据集进行下一步的训练的动作。
2、在数据安全上
进一步提升了隐私保护的能力,我们可以在整个方案当中去识别出数据当中存在的隐私数据和高价值的义务数据,对于我们的开发团队,对于我们的合作伙伴,对于第三方我们在使用数据处理过程当中可以采用十多种数据脱敏的策略,帮助我们去保护这些高价值数据和防止隐私数据的泄露,另外在模型训练的阶段我们提供了加噪训练的能力也提供了相应的密太计算的能力,通过这两种能力的叠加,我们能够保证AI模型在最终的推理阶段,对于用户隐私的数据的处理能够达到一个更好的安全保护的效果。
在整个的第二个关键要素,也就是算法可靠性上我们怎么识别算法是否存在偏见,是否存在错误性,可以利用PAI提供的公平性和错误性检测的组件,这样的话我们就可以评估我们的算法是不是存在因为性别、因为地域、或者因为人种导致推理结果存在偏见,如果存在这样的偏见的话是因为哪些参数引起的,我们可以做相应的微调,确保最终达到理想的效果。
在效果可靠性的另外一个层面,我们在实际的用户的输入输出的使用过程当中,如果用户输入的就是一个错误的参数,那我们通过这样一个算法可靠的增强的组件,可以保证我们对不合规的不安全的用户的请求进行一个聚扎。另外,我们在模型产出的推理结果会增加一个保护,这个保护可以保证我们的模型推理结果做进一步的安全合规的检查,如果这个保护确认应答不符合安全合规的标准,那我们应该撤回这个推理结果,不应该让用户看到,或我们要让模型从新生成一个更优的结果然后再推给客户,这样我们可以在整个算法推理结果上进行一个拦截和过滤。
3、模型安全层面
无论我们的AI模型,最终部署在云上还是部署在端上,PAI提供的安全能力都可以保证对AI模型进行加密之后通过安全的传输通道,部署在指定的目标,而且在这个目标运行时,我们通过AI模型的保护服务只允许可信的用户、可信的设备、授信的应用来访问和运行我们的AI模型,这样可以最大程度避免AI模型被随意拷贝随意滥用,很快我们就可以在云上部署AI模型时,去选择具备机密计算容器的EAS的服务器,机密计算容器是通过硬件和软件相结合的技术,就像在云环境里面,自己增加了一个保险箱,这个保险箱的钥匙只有我们的客户拥有,我们的客户才能决定谁可以去动这个模型,谁能够去访问和处理这个模型,甚至升级这个模型,这样的话通过可信容器的方式进一步保证了云上部署的AI模型的安全性。
4、在云的基础设施上
我们和云安全中心合作,利用阿里云现在已有的一系列安全的防护措施能够对我们模型的VPC的访问的控制,能够对于模型相关的这些存储计算网络等等产品的安全配置进行检查从而保证除了AI系统之外,周边系统上下游系统也始终处于一个安全的可控的状态,这样进一步提升了我们整体AI系统的安全性。
总统来说PAI是基于保护数据和隐私安全、优化和治理算法推理的结果保证模型的可用性和机密性,来最终实现一个可信的AI,未来我们也期望和更多的企业和开发者一起携手共建安全的可靠的值得信赖的AI。