微软的全何Copilot被称为世界上最强大的生产力工具之一。 Copilot是防止发生一个AI助手,它位于你的数据每个Microsoft 365应用程序中-Word、Excel 、泄露PowerPoint 、全何Teams 、防止发生Outlook等。数据微软的泄露梦想是从日常工作中解脱出来
,让人类专注于成为创造性的全何问题解决者
。 让Copilot成为一个不同于ChatGPT和其他AI工具的模板下载防止发生工具的是,它可以访问你在365中所做的数据一切
,Copilot可以立即从你的泄露文档 、演示文稿、全何电子邮件、防止发生日历
、数据笔记和联系人中搜索和汇编数据
,这就是信息安全团队认为存在的问题,Copilot可以访问用户可以访问的所有敏感数据。香港云服务器平均而言
,一家公司10%的M365数据对所有员工开放
。 Copilot还可以快速生成必须保护的全新敏感数据
。在AI革命之前
,人类创建和共享数据的能力远远超过了保护数据的能力,只要看看数据泄露的趋势就知道了
,GenAI为这把火加了一把油。 作为一个整体,当谈到GenAI时,有很多东西需要拆解:模型中毒、幻觉
、服务器租用深度假冒等,然而,在这篇文章中
,我将专门关注数据安全以及你的团队如何确保安全的Copilot推出。 GenAI与M365这样的协作套件的使用案例是无限的,很容易理解为什么这么多IT和安全团队都在叫嚣着要及早访问并准备他们的推广计划,生产率的提升将是免费模板巨大的。 例如
,你可以打开一个空白Word文档,并要求Copilot根据目标数据集为客户起草一份建议书,目标数据集可以包括OneNote页面
、PowerPoint幻灯片和其他办公文档,在几秒钟内
,你就有了一个完整的提案 。 以下是微软在发布会活动中给出的更多例子 : 以下是Copilot提示处理方式的简单概述
: 在微软,生产力和安全性之间总是存在着极端的紧张关系。 这一点在冠状病毒期间表现得淋漓尽致
,当时IT团队在没有完全了解底层安全模型如何工作或组织的M365权限、组和链接策略如何形成的情况下
,就迅速部署了Microsoft Teams
。 好消息是: 坏消息是 : 让我们把缺点一个接一个地详细说出来 。 如果公司能够轻松地在Microsoft 365中强制实施最低特权
,那么将Copilot访问权限仅授予用户可以访问的内容将是一个很好的想法。 微软在其Copilot数据安全文档中指出: 请务必使用Microsoft 365服务中提供的权限模式(如SharePoint)
,以帮助确保正确的用户或组能够正确访问企业中的正确内容。 然而
,我们从经验上知道,大多数企业都远远谈不上享有最低特权
,看看微软自己的云权限状态风险报告中的一些统计数据就知道了。 这张图片与我们每年对使用Microsoft 365的公司执行数千次数据风险评估时Varonis看到的情况相吻合。在我们的报告中,我们发现M365租户平均拥有 : 这一切为什么要发生?Microsoft 365权限极其复杂,只需考虑一下用户可以访问数据的所有方式: 更糟糕的是,权限主要掌握在最终用户手中,而不是IT或安全团队。 微软在很大程度上依赖敏感标签来执行DLP策略 、应用加密和广泛防止数据泄露 ,然而 ,在实践中,让标签发挥作用是困难的,特别是如果你依赖人类来贴敏感标签的话
。 微软描绘了一幅美好的图景,将标签和屏蔽作为数据的最终安全网,现实揭示了一种更糟糕的情景,随着人类创造数据 ,标签往往落后或过时
。 阻止或加密数据可能会增加工作流的摩擦,而标记技术仅限于特定的文件类型
,一个企业拥有的标签越多,它对用户来说就越令人困惑,对于较大的企业来说
,这一点尤其强烈 。 当AI生成更多需要准确和自动更新标签的数据时,基于标签的数据保护的效率肯定会下降。 Varonis可以通过扫描
、发现和修复以下内容来验证和改进组织的Microsoft敏感度标签: AI可以让人类变得懒惰
,像GPT4这样的LLM生成的内容不仅很好,而且很棒,在许多情况下,速度和质量都远远超过了人类的能力,因此
,人们开始盲目信任AI来创造安全和准确的响应。 我们已经看到了现实世界中的场景 ,在这些场景中 ,Copilot为客户起草了一份建议书,其中包括属于完全不同客户的敏感数据 ,用户快速扫一眼(或不扫一眼)后点击“发送”
,现在你就有了隐私或数据泄露的场景。 在你的Copilot推出之前
,对你的数据安全态势有一个感觉是至关重要的。现在
,Copilot已基本可用,现在正是设置安全控制的好时机 。 最好的方法是从免费的风险评估开始,只需几分钟即可完成设置 ,一两天之内,你就可以实时了解敏感数据风险。


