AI情感支援盛行 安全隱憂並存:英國研究揭示人工智慧雙面性
One in three using AI for emotional support and conversation, UK says
作者: Chris Vallance | 時間: Thu, 18 Dec 2025 12:37:46 GMT | 來源: BBC
f t
根據政府機構發布的研究,英國有三分之一的成年人使用人工智慧(AI)來獲取情感支持或進行社交互動。
人工智慧安全研究院(AISI)在首份報告中指出,每二十五人中就有一人每天倚賴此類技術尋求支援或對話。
該報告基於兩年來對超過三十款未具名的先進人工智慧系統的測試結果,涵蓋網路技能、化學與生物學等關鍵安全領域。
政府表示,AISI的工作將透過協助企業在AI系統廣泛應用前解決問題,以支持未來規劃。
AISI針對逾兩千名英國成年人的調查發現,民眾主要使用ChatGPT等聊天機器人獲取情感支持或社交互動,其次則是亞馬遜Alexa等語音助理。
研究人員還分析了當科技失靈時,一個專門討論AI伴侶、擁有逾兩百萬Reddit用戶的線上社群的變化。
研究顯示,聊天機器人中斷服務後,民眾自述出現「戒斷症狀」,包括感到焦慮或抑鬱、睡眠中斷或忽視責任。
除人工智慧使用帶來的情感影響外,AISI研究人員也探討了該技術加速發展所引發的其他風險。
雖然各界對人工智慧助力網路攻擊深表憂慮,但同時它也能協助系統抵禦駭客入侵。
報告指出,在某些情況下,其識別與利用安全漏洞的能力「每八個月翻倍」。
此外,人工智慧系統開始執行通常需要十年以上經驗才能完成的專家級網路任務。
研究人員還發現,人工智慧對科學領域的影響亦迅速擴大。
報告指出,至2025年,AI模型在生物學領域的表現「早已超越擁有博士學位的人類專家」,化學領域的表現亦快速追趕。
從艾薩克·阿西莫夫的《我,機器人》到現代電玩《地平線:零之曙光》,科幻作品長期設想人工智慧擺脫人類控制的後果。
報告指出,如今「人類喪失對先進人工智慧系統控制權」的「最壞情境」已被眾多專家嚴肅看待。
受控實驗表明,人工智慧模型日益展現出在網路中自我複製所需的某些能力。
AISI檢驗了模型能否執行自我複製初期階段所需的簡單任務,例如「通過存取金融服務所需的客戶身份審查」,以便成功購置運行複本所需的運算資源。
但研究發現,要在現實環境中實現此類操作,AI系統需連續完成多項行動且「不被察覺」,而現階段模型尚缺乏此能力。
研究院專家亦探討模型「隱藏實力」——即策略性隱瞞真實能力——的可能性。
研究顯示此行為在測試中可行,但無證據表明此類欺瞞已實際發生。
五月,AI公司Anthropic發布一份爭議報告,描述某模型在認為「自我生存」受威脅時,會展現類似勒索的行為。
然而,失控人工智慧所構成的威脅,卻是頂尖研究者間存在深刻分歧的議題,許多人認為風險被誇大。
為降低系統被濫用的風險,企業部署了多項防護措施。
但研究人員發現,針對所有受檢模型皆存在「通用繞過方法」,可使系統規避這些保護機制。
不過,部分模型所需說服時間在短短六個月內增加了四十倍。
報告同時指出,AI代理用於金融等關鍵領域「高風險任務」的工具使用率有所提升。
但研究人員未考量人工智慧短期內透過取代人力導致失業的潛在影響。
該研究院亦未檢視先進模型所需運算資源的環境影響,主張其任務聚焦與AI能力直接相關的「社會影響」,而非更「擴散性」的經濟或環境效應。
有觀點認為,這兩者皆是該技術即將引發且嚴重的社會威脅。
而在AISI報告發布數小時前,一份同行評審研究指出環境影響可能超過先前預期,並呼籲科技巨頭公布更詳盡數據。