AI聊天機器人協助求醫「具危險性」 最新研究警告
Using AI for medical advice 'dangerous', study finds
作者: Ethan Gudge | 時間: Tue, 10 Feb 2026 06:20:48 GMT | 來源: BBC
f t
最新研究發現,使用人工智慧(AI)聊天機器人協助尋求醫療建議可能「具危險性」。
該研究指出,運用AI進行醫療決策對患者存在風險,因其「 tendency to provide inaccurate and inconsistent information」。
此研究由牛津大學網路研究所與牛津大學初級保健健康科學奈菲爾德系的研究人員主導,成果發表於科學期刊《自然醫學》。
共同撰寫該研究的瑞貝卡·佩恩博士表示,研究發現「在各方炒作下,AI尚未能擔任醫師角色」。
身兼家庭醫師的佩恩博士補充道:「患者必須意識到,向大型語言模型詢問自身症狀可能帶來危險,因其可能提供錯誤診斷,且無法辨識何時需要緊急醫療協助。」
研究中,研究人員請近1,300名受試者針對不同醫療情境,識別潛在健康狀況並建議後續處置方式。
部分受試者使用大型語言模型(LLM)AI軟體獲取潛在診斷與後續步驟,其他受試者則採用較傳統的方式——如諮詢家庭醫師。
研究人員隨後評估結果,發現AI經常提供「良莠不齊的資訊」,使用者難以區分。
研究指出,雖然AI聊天機器人現今「能掌握標準化醫學知識測驗」,但作為醫療工具使用時,仍會「對實際出現症狀並尋求協助的使用者構成風險」。
佩恩博士表示:「這些發現突顯了在醫療等敏感且高風險領域,開發真正能協助人們的AI系統所面臨的難度。」
該研究首席作者、牛津大學網路研究所的安德魯·比恩指出,研究顯示「即使表現最優異的LLM,與人類互動仍面臨挑戰」。
他補充道:「我們希望這項研究能協助開發更安全且實用的AI系統。」