SURL News

微軟承認AI工作助理誤讀用戶機密郵件 專家警示功能過快上線風險

Microsoft error sees confidential emails exposed to AI tool Copilot

作者: Liv McMahon | 時間: Thu, 19 Feb 2026 18:16:43 GMT | 來源: BBC

微軟已承認一項錯誤,導致其AI工作助理意外讀取並彙整部分用戶的機密電子郵件內容。

這家科技巨擘將Microsoft 365 Copilot Chat定位為企業及員工安全使用生成式AI聊天機器人的解決方案。但微軟表示,近期出現的問題使該工具向部分企業用戶顯示儲存在草稿匣與已寄出郵件資料夾中的訊息內容,包括標記為機密的郵件。

微軟指出已推出更新修正此問題,並強調「並未使任何人獲取其原本未獲授權查看的資訊」。然而部分專家警告,企業爭相快速上線新AI功能的競賽節奏,使這類錯誤變得難以避免。

Copilot Chat可整合於Outlook與Teams等微軟應用程式中,協助用戶回答問題或彙整訊息。

微軟發言人向BBC新聞表示:「我們已識別並處理一項問題,即Microsoft 365 Copilot Chat可能返回用戶在Outlook桌面端的草稿匣與已寄出郵件中,標記為機密的郵件內容。」

「儘管我們的存取控制與資料保護政策保持完整,但此行為並不符合我們預設的Copilot使用體驗,其設計本應排除Copilot讀取受保護內容。」發言人補充道,「已向全球企業客戶推送組態更新。」

該錯誤最初由科技新聞媒體Bleeping Computer披露,該媒體表示已看到確認此問題的服務警報。微軟公告指出「標記為機密的用戶郵件被Microsoft 365 Copilot聊天功能錯誤處理」。

公告進一步說明,Copilot Chat內的工作分頁曾彙整用戶草稿匣與已寄出資料夾中的郵件內容,即使這些郵件設有敏感度標籤與防止未經授權資料外洩的資料遺失防護政策。

報導指出微軟最早於一月發現此問題。其公告亦曾發布於英國國民保健署(NHS)員工的技術支援儀表板,將根本原因歸咎於「程式碼問題」。NHS IT支援網站公告內容暗示該機構亦受影響。

但微軟向BBC新聞強調,Copilot Chat處理的草稿或已寄出郵件內容仍僅限創建者存取,且未洩露患者資訊。

Microsoft 365 Copilot Chat等企業級AI工具(需訂閱Microsoft 365服務)通常設有更嚴格的控制與安全防護機制,以防止敏感企業資訊外洩。然而部分專家認為,此事仍凸顯特定工作環境採用生成式AI工具的潛在風險。

顧能(Gartner)資料保護與AI治理分析師納德·海尼恩(Nader Henein)表示,鑑於「全新AI功能」持續快速推出,「這類失誤在所難免」。他向BBC新聞指出,使用此類AI產品的組織常缺乏保護自身與管理新功能的必要工具。

海尼恩提到:「在正常情況下,組織通常會直接停用該功能,等待管理機制跟上。但遺憾的是,當前未經證實的AI熱潮所造成的壓力,使這種做法幾乎不可能實現。」

薩里大學網路安全專家艾倫·伍德沃德(Alan Woodward)教授表示,這凸顯此類工具應預設為私人模式、僅限選擇性啟用的重要性。

「這些工具勢必會存在漏洞,尤其當其以驚人速度進化時,即使資料外洩並非出於惡意,仍將發生。」他向BBC新聞表示。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: