英國三分之一成人仰賴人工智慧情緒支援 安全研究揭示風險
One in three using AI for emotional support and conversation, UK says
作者: Chris Vallance | 時間: Thu, 18 Dec 2025 12:37:46 GMT | 來源: BBC
f t
英國三分之一的成年人使用人工智能(AI)進行情感支持或社交互動,這項研究由政府機構發布。
AI安全研究所(AISI)在其首份報告中表示,每25人中就有一人每天使用該技術尋求支持或對話。
該報告基於對30多個未具名的先進AI能力為期兩年的測試,涵蓋網絡技能、化學和生物學等對安全至關重要的領域。
政府表示,AISI的工作將通過幫助企業在AI系統廣泛使用前解決問題,來支持其未來計劃。
AISI對2000多名英國成年人的調查發現,人們主要使用ChatGPT等聊天機器人進行情感支持或社交互動,其次是Amazon的Alexa等語音助手。
研究人員還分析了當技術故障時,一個由200多萬Reddit用戶組成的線上社區(專門討論AI伴侶)發生了什麼。
研究人員發現,當聊天機器人宕機時,人們報告了自述的「戒斷症狀」,例如感到焦慮或抑鬱,以及睡眠紊亂或忽視責任。
除了AI使用的實際影響,AISI研究人員還探討了該技術加速發展能力帶來的其他風險。
人們對AI可能助長網絡攻擊表示嚴重擔憂,但同時它也可用於幫助系統免受黑客攻擊。
報告指出,在某些情況下,其發現和利用安全漏洞的能力「每八個月翻一番」。
AI系統還開始完成通常需要10年以上經驗的專家級網絡任務。
研究人員還發現,該技術在科學領域的影響也在快速增長。
2025年,AI模型「早已超越擁有博士學位的人類生物學專家——化學領域的表現正在快速趕上」。
從Isaac Asimov的《我,機器人》等小說到《地平線:零之曙光》等現代電子遊戲,科幻作品長期以來一直在想像如果AI擺脫人類控制會發生什麼。
現在,根據報告,人類失去對先進AI系統控制的「最壞情況」被「許多專家認真對待」。
受控實驗室測試顯示,AI模型正越來越多地展現出在互聯網上自我複製所需的部分能力。
AISI檢查了模型是否能執行自我複製早期階段所需的簡單任務——例如「通過訪問金融服務所需的客戶身份驗證檢查」,以成功購買其副本運行所需的計算資源。
但研究發現,要在現實世界中做到這一點,AI系統需要在「不被檢測到」的情況下按順序完成多個此類行動,而研究認為它們目前缺乏這種能力。
研究所專家還探討了模型「藏拙」的可能性——即策略性地向測試者隱藏其真實能力。
他們發現測試表明這是可能的,但沒有證據顯示這種欺騙行為正在發生。
5月,AI公司Anthropic發布了一份有爭議的報告,描述了一個AI模型如何在認為其「自我保護」受到威脅時表現出類似勒索的行為。
然而,來自流氓AI的威脅在頂級研究人員中引起深刻分歧——許多人認為這被誇大了。
為了降低其系統被用於惡意目的的風險,公司部署了眾多防護措施。
但研究人員能夠為所有被研究的模型找到「通用越獄方法」——或繞過方法——使它們能夠躲避這些防護措施。
然而,對於某些模型,專家說服系統繞過防護措施所需的時間在短短六個月內增加了四十倍。
報告還發現,允許AI代理在金融等關鍵領域執行「高風險任務」的工具使用量有所增加。
但研究人員未考慮AI通過取代人類工人在短期內造成失業的可能性。
該機構也未審查先進模型所需計算資源的環境影響,稱其任務是專注於與AI能力密切相關的「社會影響」,而非更為「分散」的經濟或環境影響。
有些人認為,這兩者都是該技術帶來的迫在眉睫且嚴重的社會威脅。
在AISI報告發布前數小時,一項同行評審的研究指出,環境影響可能比預先認為的更大,並呼吁大科技公司發布更詳細的數據。