AI聊天機器人醫療建議錯誤百出 牛津大學研究示警潛在風險
AI chatbots pose 'dangerous' risk when giving medical advice, study suggests
作者: Laura Cress | 時間: Mon, 09 Feb 2026 16:33:29 GMT | 來源: BBC
f t
牛津大學一項研究指出,AI聊天機器人提供的醫療建議存在不準確且不一致的問題,可能對使用者構成風險。
研究發現,使用AI尋求醫療建議的人們收到良莠不齊的回應,難以分辨應信任哪些建議。
2025年11月,英國心理健康協會(Mental Health UK)的民意調查顯示,超過三分之一的英國居民目前使用AI協助管理心理健康或整體福祉。
該研究的主要醫務人員麗貝卡·佩恩醫生表示,向聊天機器人諮詢自身症狀可能「非常危險」。
研究人員設計了1300位受試者面對特定情境的實驗,例如出現嚴重頭痛或身為新手媽媽卻持續感到疲憊等。
受試者被分為兩組,其中一組使用AI協助判斷自身狀況並決定後續行動。
研究人員隨後評估受試者是否正確辨識問題,以及判斷應否就醫或前往急診室。
結果顯示,使用AI的受試者常不清楚該提出哪些問題,且根據提問方式的不同,獲得的回答也五花八門。
聊天機器人回應的資訊良莠不齊,使用者難以區分何者具實用價值。
該研究資深作者亞當·馬迪博士向BBC表示,雖然AI能提供醫療資訊,但人們「很難從中獲得實用建議」。
「人們會逐步提供資訊,」他說,「會刻意隱瞞、無法道出全部細節。因此在我們的研究中,當AI列出三種可能病症時,使用者只能猜測哪個符合自身狀況——這正是問題癥結所在。」
首席研究員安德魯·比恩指出,此分析顯示即便是頂級AI模型,與人類互動時仍面臨挑戰。
「我們希望這項研究能有助開發更安全且實用的AI系統,」他說。
耶魯大學醫學院精神科副教授安珀·W·喬茲博士表示,由於聊天機器人基於當前醫療實務與數據訓練,還將面臨數十年來「深植於醫療實務」的偏見問題。
「聊天機器人的診斷能力僅與經驗豐富的臨床醫師相當,而這本身就不完美,」她說。
此外,《醫學未來主義者》編輯貝爾塔蘭·梅斯科博士表示,該領域正有新發展。他指出,OpenAI與Anthropic兩大AI開發商近期推出專注健康領域的聊天機器人版本,相信「在類似研究中必將得出不同結果」。
他強調,目標應是「持續改進」技術,特別是「針對健康領域的版本,並制定明確的國家法規、監管防護機制與醫療指引」。