AI安全研究員辭職警示:世界面臨多重危機
AI safety leader says 'world is in peril' and quits to study poetry
作者: Liv McMahon | 時間: Fri, 13 Feb 2026 04:37:44 GMT | 來源: BBC
f t
一名AI安全研究員已辭去美國企業Anthropic職務,並以隱晦警告指出「世界正處於危險之中」。
在X平台公開的辭職信中,Mrinank Sharma表示,因對AI、生化武器及全球局勢的擔憂而決定離職。
他提到將專注於詩歌寫作與研究,並返回英國「成為隱形人」。
同周,一名OpenAI研究員也因擔憂ChatGPT開發商在聊天機器人中投放廣告的決定而辭職。
以聊天機器人Claude聞名的Anthropic近期推出一連串針對OpenAI的廣告,批評該公司向部分用戶顯示廣告的舉動。
該公司由2021年脫離OpenAI的早期員工組建,自稱在AI研究上比競爭對手更注重安全。
Sharma曾領導團隊研究AI防護措施,他表示貢獻包括探討生成式AI系統為何迎合使用者、應對AI輔助生物恐怖主義風險,以及研究「AI助手如何使我們變得不那麼人性化」。
但他強調,儘管在公司期間愉快,但「是時候前進了」。
Sharma在信中寫道:「世界正處於危險中,不僅來自AI或生化武器,更源於當下正爆發的一系列相互關聯的危機。」
他表示:「我反覆見證真正讓價值觀主導行動的困難——包括在Anthropic,該公司 постоянно面臨將最重要的事項置之不理的壓力。」
他計畫攻讀詩歌學位並專注寫作。
在補充說明中,他提及:「我將返回英國,讓自己在一段時間內保持隱形。」
這些在當前生成式AI熱潮中占據重要地位的企業,雖以高薪或補償方案留才,但離職員工通常仍保有大量股權與福利。
Anthropic自稱為「致力確保AI益處並降低風險的公共利益企業」。
該公司特別關注防止先進前沿系統可能引發的風險,例如與人類價值觀脫節、在衝突中遭濫用或過度強大。
其曾發布產品安全報告,包括技術遭駭客「武器化」以執行精密網路攻擊的案例。
然而,該公司亦因實務備受質疑。2025年, Anthropic同意支付15億美元和解一樁集體訴訟,作者指控其竊取著作訓練AI模型。
與OpenAI相似,該公司亦積極追求技術優勢,包括推出對抗ChatGPT的Claude。
近期,Anthropic發布廣告批評OpenAI在ChatGPT投放廣告的舉動。
OpenAI執行長Sam Altman曾表示厭惡廣告,稱其為「最後手段」。
上週,他反駁廣告將此形容為「背叛」的說法,但因長篇回應遭嘲諷。
本週辭職的OpenAI前研究員Zoe Hitzig向BBC Newsnight表示,她對在產業工作感到「極度不安」。
Hitzig指出,新型社交互動的潛在心理社會影響尚未明確,AI工具依賴現象已出現「令人憂慮的早期警訊」,可能「強化特定幻覺」並影響使用者心理健康。
她強調:「在未充分理解前,就建立從此類新關係獲利的經濟引擎極其危險。」
她指出:「我們見證了社群媒體的結果,現在仍有時間建立可實際管理此領域的社會制度與監管形式。」這正是「關鍵時刻」。
針對BBC採訪,OpenAI發言人重申其原則:「我們的使命是確保通用人工智慧造福全人類;廣告策略始終支持此目標並提升AI可及性。」
聲明補充:「我們確保與ChatGPT的對話內容不會向廣告商開放,且絕不向廣告商出售您的資料。」