SURL News

美國防部:Anthropic 因政策偏好內嵌問題被列為供應鏈風險

Anthropic’s Claude would ‘pollute’ defense supply chain: Pentagon CTO

作者: Ashley Capoot | 時間: Thu, 12 Mar 2026 16:35:20 GMT | 來源: CNBC

國防部首席技術官埃米爾·邁克爾星期四表示,Anthropic 的 Claude 人工智慧模型會「污染」該機構的供應鏈,因為它們擁有「不同的政策偏好」且已嵌入其中。

「我們不能讓一家擁有不同政策偏好、透過其憲章、靈魂與政策偏好嵌入模型的企業,來污染供應鏈,導致我們的作戰人員獲得無效的武器、無效的體外護甲及無效的防護。」邁克爾在接受 CNBC 廣播節目「響箱」(Squawk Box)採訪時說。「這正是供應鏈風險指稱所由來的原因。」

Anthropic 是首家被公開標記為供應鏈風險的美國企業,這一舉措在歷史上通常僅保留給外國對手。該指稱將要求國防承包商和供應商證實他們在工作中不使用 Claude 與五角大樓合作。

邁克爾星期四的評論提供了美國國防部關於為何認為 Anthropic 構成了供應鏈風險的最清楚解釋。該機構上月早些時候發送了正式信函通知該公司有關該指稱,但信中未說明 Claude 對國家安全構成何種風險。

Anthropic 於星期一對特朗普政府提訴,聲稱政府的舉動「前所未有且非法」。Anthropic 在文件中表示,公司正遭受「無法補救」的損害,且數億美元的合同岌岌可危。

「這並非意圖懲罰,」邁克爾星期四說。

他補充說 Anthropic 擁有「龐大的商業業務」,只有「極小部分」來自美國政府。邁克爾還駁斥了 Anthropic 關於政府主動接觸公司並告知他們不要使用 Anthropic 的說法,稱該說法是「謠言」。

「只要不在我們的供應鏈中,國防部就不會接觸公司告訴他們該做什麼,」他說。

Anthropic 成立於 2021 年,由一群從 OpenAI 轉職的研究人員和主管創立。該公司以 Claude 模型家族聞名,並已在大型企業包括國防部方面取得早期成功。

該初創企業起草並發布了一份「憲法」,用於協助訓練其主流通用訪問的 Claude 模型。Anthropic 表示,這份憲法在這個過程中發揮「關鍵作用」,且其內容根據其網站說法「直接塑造了 Claude 的行為」。

Anthropic 於一月份分享了 Claude 最新版本的憲法。

「在其中,我們解釋了 Claude 如何在保持廣泛安全、符合道德並遵守我們的指南的同時提供幫助的意義,」Anthropic 在一篇博客文章中說。「這份憲法讓Claude了解其處境情況,並提供如何應對艱難處境和取捨的建議,例如平衡誠實與同情心以及敏感信息的保護。」

即使 Anthropic 被列入黑名單後,公司的模型仍被用來支持美國軍事在伊朗的行動,CNBC 先前曾報導。Palantir 執行長亞歷克斯·卡爾普(Alex Karp)星期四告訴 CNBC,他的公司作為主要國防承包商,仍在使用 Claude。

邁克爾表示過渡到另一供應商需要時間,且國防部無法「一夜之間拔除」Anthropic 的技術。他說該機構有過渡計劃。

「這不僅僅是像 Outlook 那樣你可以從桌面刪除它,」邁克爾說。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: