Anthropic 調查小團體未經授權取得保密 AI 模型 Mythos 指控
Anthropic investigating claim of unauthorised access to Mythos AI tool
作者: Joe Tidy | 時間: Wed, 22 Apr 2026 10:13:35 GMT | 來源: BBC
f t
Anthropic 正在調查一項指稱,一小群人未經授權取得其「Claude Mythos」模型的存取權,該模型是該 AI 公司指稱過於強大而無法向公眾釋出的網路安全工具。
公司發表聲明說:「我們正調查一項報告,聲稱透過我們其中一個第三方供應商環境未經授權存取 Claude Mythos Preview。」
此乃針對彭博社報導作出的回應,報導指出私人社團成員已在不具正常許可的情況下成功存取該模型。
對於 Mythos 的能力人們深感不安,儘管英國頂尖網路安全官員曾說,若技術能防止誤用,進階 AI 工具對整體而言會有正面效益。
目前並無跡象顯示惡意行為者已取得該模型,Anthropic 表示也沒有證據顯示其系統受到影響。
但未經授權使用者取得模型的報導,引發關於大型 AI 公司能否阻止其進階 AI 模型落入錯誤之手能力的疑問。
根據網路安全公司 SmartTech 執行長 Raluca Saceanu 所言,這「最有可能是誤用存取權限所致,而非經典的黑客攻擊」。
Anthropic 已向部分科技與金融公司發布 Mythos 模型,以協助其針對該模型報稱的漏洞利用能力保護系統。
但這依賴那些公司確保其自身存取權受到緊密控制。
根據彭博社報導,此人原本已有權限透過工作取得 Anthropic AI 模型的觀看權,該工作由第三方合約商完成。
該媒體 outlet 亦報導,該小組自取得存取權以來一直使用此模型,雖非用於黑客攻擊,因為他們不想被察覺。
Saceanu 表示:「當強大的 AI 工具在預期控制之外被存取或使用时,風險不僅是安全事件,更是那些可能被用於詐欺、網路虐待或其他惡意活動的能力擴散。」
星期三在大型網路安全會議上發表演說的英國國家網絡安全中心(NCSC)主管,提出更積極的論點,主張 AI 工具能讓人更安全。
Richard Horne 敦促 CyberUK 代表不要害怕新的 AI 攻擊,而是要確保做好網路安全基礎工作。
他說:「正如我們最近在媒體上所見,前沿 AI 正在快速促成現有漏洞的發現與大規模利用,說明它將如何快速暴露網路安全基礎尚待解決之處。」
Horne 的警告呼應了近年來的類似訊息,例如人們必須確保更新系統軟體並升級舊有 IT 基礎設施的緊迫性。
在同場活動上,安全部長 Dan Jarvis 懇求 AI 企業與政府合作,透過「世代性的努力」確保 AI 被用於保護關鍵網路免受攻擊者侵害。
所有最強大且進階的 AI 模型,即所謂的 frontier AI,均開發於英國之外,頂尖公司位於美國或中國。
這意味著英國依賴像 Anthropic 這樣的企業給予其 Mythos 的存取權,對其如何建造、訓練或釋出無控制權。
OpenAI 也有據稱非常能夠的網路安全模型,稱為 GPT 5.4 Cyber。
CyberUK 的演講也強調了國家及黑客活動分子的攻擊持續威脅,特別是來自俄羅斯和中國。
NCSC 警告稱,網路安全現已成為英國國防的「家門口」,最近的事件如伊朗攻擊顯示,網路在所有現代衝突中扮演著越來越重要的角色。
額外的報導由 Imran Rahman-Jones 負責。