GenAI安全:如何防止Microsoft Copilot发生数据泄露

简介: GenAI安全:如何防止Microsoft Copilot发生数据泄露

本文来自 企业网D1net公众号

让Copilot成为一个不同于ChatGPT和其他AI工具的工具的是,它可以访问你在365中所做的一切,Copilot可以立即从你的文档、演示文稿、电子邮件、日历、笔记和联系人中搜索和汇编数据,这就是信息安全团队认为存在的问题,Copilot可以访问用户可以访问的所有敏感数据。

微软的Copilot被称为世界上最强大的生产力工具之一。

Copilot是一个AI助手,它位于你的每个Microsoft 365应用程序中-Word、Excel、PowerPoint、Teams、Outlook等。微软的梦想是从日常工作中解脱出来,让人类专注于成为创造性的问题解决者。

让Copilot成为一个不同于ChatGPT和其他AI工具的工具的是,它可以访问你在365中所做的一切,Copilot可以立即从你的文档、演示文稿、电子邮件、日历、笔记和联系人中搜索和汇编数据,这就是信息安全团队认为存在的问题,Copilot可以访问用户可以访问的所有敏感数据。平均而言,一家公司10%的M365数据对所有员工开放。

Copilot还可以快速生成必须保护的全新敏感数据。在AI革命之前,人类创建和共享数据的能力远远超过了保护数据的能力,只要看看数据泄露的趋势就知道了,GenAI为这把火加了一把油。

作为一个整体,当谈到GenAI时,有很多东西需要拆解:模型中毒、幻觉、深度假冒等,然而,在这篇文章中,我将专门关注数据安全以及你的团队如何确保安全的Copilot推出。



Microsoft 365 Copilot的使用案例


GenAI与M365这样的协作套件的使用案例是无限的,很容易理解为什么这么多IT和安全团队都在叫嚣着要及早访问并准备他们的推广计划,生产率的提升将是巨大的。

例如,你可以打开一个空白Word文档,并要求Copilot根据目标数据集为客户起草一份建议书,目标数据集可以包括OneNote页面、PowerPoint幻灯片和其他办公文档,在几秒钟内,你就有了一个完整的提案。

以下是微软在发布会活动中给出的更多例子:

  • Copilot可以参加你的Teams会议,实时总结正在讨论的内容,捕捉行动项目,并告诉你哪些问题在会议中未得到解决。


  • Outlook中的Copilot可以帮助你对收件箱进行分类、确定电子邮件的优先顺序、汇总主题并为你生成回复。


  • Excel中的Copilot可以分析原始数据,为你提供见解、趋势和建议。



Microsoft 365 Copilot的工作原理


以下是Copilot提示处理方式的简单概述:

  • 用户在Word、Outlook或PowerPoint等应用程序中输入提示。


  • 微软根据用户的M365权限收集用户的业务环境。


  • 向LLM(如GPT4)发送提示以生成响应。


  • 微软执行负责任的AI后处理检查。


  • 微软向M365应用程序返回一个响应和命令。


d6266cde0a22ac34e8bcf9e8503162e3.png



Microsoft 365 Copilot的安全模型


在微软,生产力和安全性之间总是存在着极端的紧张关系。

这一点在冠状病毒期间表现得淋漓尽致,当时IT团队在没有完全了解底层安全模型如何工作或组织的M365权限、组和链接策略如何形成的情况下,就迅速部署了Microsoft Teams

好消息是:

  • 租户隔离。Copilot仅使用来自当前用户的M365租户的数据,AI工具不会显示来自用户可能是访客的其他租户的数据,也不会显示可能设置了跨租户同步的任何租户的数据。


  • 培训范围。Copilot不会使用你的任何业务数据来培训Copilot为所有租户使用的基础LLM,你不用担心你的专有数据会出现在其他租户的其他用户的回复中。


坏消息是:

  • 权限。Copilot显示个人用户至少具有查看权限的所有组织数据。


  • Copilot生成的内容不会继承Copilot响应来源的文件的MPIP标签。


  • Copilot的回应不能保证100%真实或安全,人类必须对审查AI生成的内容负责。


让我们把缺点一个接一个地详细说出来。



权限


如果公司能够轻松地在Microsoft 365中强制实施最低特权,那么将Copilot访问权限仅授予用户可以访问的内容将是一个很好的想法。
微软在其Copilot数据安全文档中指出:

请务必使用Microsoft 365服务中提供的权限模式(如SharePoint),以帮助确保正确的用户或组能够正确访问企业中的正确内容。

然而,我们从经验上知道,大多数企业都远远谈不上享有最低特权,看看微软自己的云权限状态风险报告中的一些统计数据就知道了。

这张图片与我们每年对使用Microsoft 365的公司执行数千次数据风险评估时Varonis看到的情况相吻合。在我们的报告中,我们发现M365租户平均拥有:

  • 4000多万个唯一权限


  • 11.3万多条公开共享的敏感记录


  • 27K+共享链接


这一切为什么要发生?Microsoft 365权限极其复杂,只需考虑一下用户可以访问数据的所有方式:

  • 直接用户权限


  • Microsoft 365组权限


  • SharePoint本地权限(具有自定义级别)


  • 访客访问


  • 外部访问


  • 公众通道


  • 链接访问(任何人、组织范围内、直接访问、访客)


更糟糕的是,权限主要掌握在最终用户手中,而不是IT或安全团队。



标签


微软在很大程度上依赖敏感标签来执行DLP策略、应用加密和广泛防止数据泄露,然而,在实践中,让标签发挥作用是困难的,特别是如果你依赖人类来贴敏感标签的话。

微软描绘了一幅美好的图景,将标签和屏蔽作为数据的最终安全网,现实揭示了一种更糟糕的情景,随着人类创造数据,标签往往落后或过时。

阻止或加密数据可能会增加工作流的摩擦,而标记技术仅限于特定的文件类型,一个企业拥有的标签越多,它对用户来说就越令人困惑,对于较大的企业来说,这一点尤其强烈。

当AI生成更多需要准确和自动更新标签的数据时,基于标签的数据保护的效率肯定会下降。

我的标签没问题吧?

Varonis可以通过扫描、发现和修复以下内容来验证和改进组织的Microsoft敏感度标签:

  • 没有标签的敏感文件


  • 标签不正确的敏感文件


  • 带有敏感标签的非敏感文件



人类


AI可以让人类变得懒惰,像GPT4这样的LLM生成的内容不仅很好,而且很棒,在许多情况下,速度和质量都远远超过了人类的能力,因此,人们开始盲目信任AI来创造安全和准确的响应。

我们已经看到了现实世界中的场景,在这些场景中,Copilot为客户起草了一份建议书,其中包括属于完全不同客户的敏感数据,用户快速扫一眼(或不扫一眼)后点击“发送”,现在你就有了隐私或数据泄露的场景。

让你的租户安全-为Copilot做好准备。

在你的Copilot推出之前,对你的数据安全态势有一个感觉是至关重要的。现在,Copilot已基本可用,现在正是设置安全控制的好时机。

最好的方法是从免费的风险评估开始,只需几分钟即可完成设置,一两天之内,你就可以实时了解敏感数据风险。


相关文章
|
1月前
|
人工智能 安全 网络安全
AWS的CISO:GenAI只是一个工具,不是万能钥匙
AWS的CISO:GenAI只是一个工具,不是万能钥匙
|
2月前
|
人工智能 数据处理 Windows
【战略前沿】Microsoft的新 Copilot 密钥会让公司头疼吗?
【战略前沿】Microsoft的新 Copilot 密钥会让公司头疼吗?
|
JSON 人工智能 搜索推荐
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(下)
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享
263 0
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(下)
|
机器学习/深度学习 人工智能 API
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(上)
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享
166 0
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(上)
|
机器学习/深度学习 存储 人工智能
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(中)
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享
120 0
【微软 Azure 认知服务】零基础搭建微软 Azure AI 认知服务实验分享(中)
|
Web App开发 安全 Windows
微软拟对Office 2007增添新功能 增强安全性
北京时间12月15日消息,据国外媒体报道,微软今天发布了17个安全补丁,修复了40个安全漏洞。微软同时表示,将通过为Office 2003和Office 2007增添一项新功用,来改进安全性能。 微软可信赖计算部门(Trustworthy Computing Group)响应通信部门主管杰瑞·布莱恩特(Jerry Bryant)表示,用户应当关注微软周二安全升级中的两个重要公告。
1062 0

热门文章

最新文章