微軟承認AI助理誤讀機密郵件 修復措施難掩資安隱憂
Microsoft error sees confidential emails exposed to AI tool Copilot
作者: Liv McMahon | 時間: Thu, 19 Feb 2026 18:16:43 GMT | 來源: BBC
f t
微軟已承認其AI工作助理因錯誤而意外存取並彙總部分用戶的機密電子郵件。
這家科技巨頭曾大力推廣Microsoft 365 Copilot Chat,宣稱這是工作場所及其員工安全使用生成式AI聊天機器人的途徑。
但微軟表示,近期發生的問題導致該工具向部分企業用戶顯示儲存在草稿及已傳送郵件資料夾中的訊息內容——包括標記為機密的郵件。
微軟表示已推出更新修復此問題,並強調「並未讓任何人取得其原本無權檢視的資訊」。
然而,部分專家警告,企業為搶先推出新AI功能而加速競爭的速度,使此類錯誤在所難免。
Copilot Chat可整合於Outlook及Teams等微軟程式中,用於電子郵件與聊天功能,提供問題解答或訊息彙總服務。
「我們已發現並處理了Microsoft 365 Copilot Chat可能提取使用者標記為機密的電子郵件內容之問題。這些郵件儲存於Outlook桌面版的草稿與已傳送郵件資料夾中,」微軟發言人向BBC新聞表示。
「儘管我們的存取控制與資料保護政策仍完整運作,但此行為並未符合我們預設的Copilot體驗——設計上應排除Copilot讀取受保護內容,」發言人補充道。
「已向企業客戶全球部署設定更新。」
此疏失最早由科技新聞媒體Bleeping Computer報導,該媒體稱已看到確認問題的服務警示。
報導援引微軟公告指出,「已標示機密標籤的用戶電子郵件遭Microsoft 365 Copilot聊天功能錯誤處理」。
公告進一步說明,Copilot Chat中的工作標籤曾彙整使用者草稿與已傳送資料夾中的郵件訊息,即便這些郵件已設定敏感度標籤及防止資料外洩政策以阻擋未經授權的資料分享。
報告顯示,微軟最早於今年1月便察覺此錯誤。
其關於漏洞的公告也出現在英國國民保健署(NHS)員工支援儀表板上,其中將根本原因歸咎於「程式碼問題」。
NHS資訊技術支援網站公告的某段內容暗示該機構亦受影響。
但微軟向BBC新聞表示,Copilot Chat處理的任何草稿或已傳送郵件內容仍僅限創建者存取,且病患資訊未遭外洩。
Microsoft 365 Copilot Chat等企業級AI工具——僅供擁有Microsoft 365訂閱的組織使用——通常會實施更嚴格的控制措施與安全防護,以防止敏感企業資訊外流。
但對部分專家而言,此事件仍凸顯在特定工作環境中採用生成式AI工具的風險。
顧能(Gartner)數據保護與AI治理分析師納德·赫尼恩(Nader Henein)表示,鑑於「新穎AI功能」頻繁推出,「這類失誤不可避免」。
他向BBC新聞表示,使用這些AI產品的組織通常缺乏必要工具來保護自身並管理每項新功能。
「正常情況下,組織會直接關閉該功能並等待治理措施跟上進度,」赫尼恩說。
「但遺憾的是,未經證實的AI炒作所帶來的巨大壓力,使這種做法幾乎不可能實現。」
薩里大學網路安全專家艾倫·伍德沃德(Alan Woodward)教授則指出,此事件凸顯此類工具應預設為私人模式並僅開放選擇性啟用的重要性。
「這些工具難免會出現錯誤,尤其是當其以驚人速度進步時。因此即使資料外洩非出於本意,仍會發生,」他向BBC新聞表示。