SURL News

美國 AI 公司招募化學武器專家防範軟體濫用,引發業界安全爭議

AI firm Anthropic seeks weapons expert to stop users from 'misuse'

作者: Zoe Kleinman | 時間: Tue, 17 Mar 2026 00:08:32 GMT | 來源: BBC

美國人工智慧(AI)公司 Anthropic 正尋求聘僱一位精通化學武器及高威力炸藥的專家,以期防止其軟體遭到「災難性濫用」。

換句話說,該公司擔憂其 AI 工具可能會告訴某人如何製造化學或放射性武器,並希望透過此專家確保其防護措施足夠堅固。

在 LinkedIn 的招募貼文中,該公司表示申請人應具備至少五年「化學武器和/或炸藥防禦」經驗,同時需了解「輻射散佈裝置」——也就是人所共知的骯髒炸彈。

該公司向 BBC 表示,此職位類似於其已經創設的其他敏感領域的職務。

Anthropic 並非唯一採取此策略的 AI 公司。

ChatGPT 開發商 OpenAI 也發佈了類似的職位空缺。在其職業網站上,它列出了一個研究「生物與化學風險」的研究人員職位,年薪最高達 45.5 萬美元(約 33.5 萬英鎊),幾乎是 Anthropic 提供薪水的兩倍。

但一些專家對此做法的風險表示警覺,警告這會賦予 AI 工具有關武器的資訊——即使它們被指示不得使用這些資訊。

BBC《AI Decoded》電視節目的科技研究員兼共同主持人、史蒂芬妮·哈爾(Stephanie Hare)博士說:「使用 AI 系統處理敏感化學品和炸藥資訊,包括骯髒炸彈和其他放射性武器,是否永遠安全?」

針對此類工作及在此類型武器上使用 AI,沒有任何國際條約或相關規章。所有這些都在視線之外發生。

AI 產業持續警告其技術可能帶來的潛在存在性威脅,但並未嘗試放慢其進展。

隨著美國政府在發動對伊朗的戰爭以及委內瑞拉軍事行動時呼籲 AI 公司介入,該問題變得更加迫切。

Anthropic 正針對美國國防部採取法律行動,因為該部門將其指定為供應鏈風險,當時該公司堅持其系統不得用於完全自主武器或對美國人的大規模監控。

Anthropic 共同創辦人達里奧·阿莫代於二月表示,他認為該技術尚未足夠成熟,不應用於此類用途。白宮表示美國軍方不會受科技公司管轄。

此風險標籤使這家美國公司處於與中國電信企業華為同樣的境地,後者也因類似的安全疑慮被列為黑名單。

OpenAI 表示同意 Anthropic 的立場,但隨後與美國政府協商了自訂合約,該公司稱該合約尚未開始。

Anthropic 的人工智慧助手名為「Claude」,目前尚未被停用,仍然嵌入由 Palantir 提供的系統中,並正由美國部署於涉及以色列、伊朗的軍事行動中。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: