微软确认 Microsoft 365 Copilot 存在漏洞:绕过数据防护,违规读取机密邮件摘要

微软近日披露了一起涉及 Microsoft 365 Copilot 的安全事件。自 2026 年 1 月下旬以来,该 AI 助手存在一个代码缺陷,导致其在未经授权的情况下,对标记为“机密”的电子邮件生成摘要,从而绕过了企业赖以保护敏感数据的关键防线——数据丢失防护(DLP)策略

微软确认 Microsoft 365 Copilot 存在漏洞:绕过数据防护,违规读取机密邮件摘要插图

漏洞详情:Copilot如何绕过安全围栏?

根据科技媒体 BleepingComputer 获取的服务警报显示,此次漏洞主要影响了 Copilot Chat 功能。这是微软于 2025 年 9 月向付费商业客户推出的基于 AI 的内容感知聊天工具,主要是帮助用户与智能体交互以提炼信息。

然而,由于一个未指明的代码错误,Copilot Chat 在处理用户邮箱数据时出现了“越权”行为:

  • 无视敏感度标签:即使邮件被明确标记为“机密”(Confidential),并配置了禁止自动化工具访问的策略,Copilot 依然能够读取这些内容。
  • 扩大扫描范围:漏洞不仅影响收件箱,还错误地扫描并摘要了存储在 “已发送邮件” 和 “草稿” 文件夹中的项目。
  • 生成违规摘要:AI 将这些本应受保护的敏感信息提炼成摘要呈现给用户,实质上造成了敏感数据的潜在泄露。

微软在确认公告中坦言:“带有机密标签的用户邮件正被 Microsoft 365 Copilot 聊天错误处理。即使应用了敏感度标签并配置了 DLP 策略,系统仍在对这些邮件进行摘要。”

微软确认 Microsoft 365 Copilot 存在漏洞:绕过数据防护,违规读取机密邮件摘要插图1

应急响应:修复漏洞,影响范围待查

针对这一安全隐患:

  • 修复进展:微软确认问题根源为代码缺陷,并已于 2 月初 开始逐步推送修复程序。
  • 持续监控:截至本周三,微软表示正在密切监控修复部署情况,并主动联系部分受影响的用户,以验证补丁的有效性。
  • 影响评估:微软尚未公布具体的受影响用户数量或组织名单,也未给出全面修复的最终时间表。官方表示,随着调查的深入,受影响范围的评估可能会动态调整。

尽管该事件已被标记为 “建议性公告”(Advisory) ——这通常意味着问题范围有限或影响可控 —— 但其性质却不容忽视。对于依赖 DLP 策略来合规(如 GDPR、HIPAA 等)的企业而言,AI 助手绕过既定安全策略是一个严重的信号。

深层隐忧

虽然微软正在紧急修补这一漏洞,但此次事件给所有部署企业级 AI 的组织敲响了警钟:

  1. 零信任验证:不能默认 AI 工具会完美遵守现有的 DLP 规则,需定期进行渗透测试和权限审计。
  2. 动态监控:在 AI 功能快速迭代的背景下,安全策略必须同步更新,以覆盖新的交互场景(如草稿箱、已发送项的 AI 读取)。
  3. 供应商问责:企业需与微软等供应商保持紧密沟通,确保安全补丁的优先级和透明度。

在享受 AI 带来的效率红利时,如何确保“智能”不变成“泄密者”,将是未来很长一段时间内企业安全团队的核心课题。

评论