使用 AI 聊天機器人諮詢健康可靠嗎?實錄與專家警告
Should you really trust health advice from an AI chatbot?
作者: James Gallagher | 時間: Sat, 18 Apr 2026 23:04:43 GMT | 來源: BBC
f t
過去一年,Abi 一直使用 ChatGPT——這是最知名的 AI 聊天機器人之一——來協助管理她的健康。
其吸引力顯而易見。聯絡全科醫生(GP)有時感覺不可能,而人工智慧始終準備好回答你的問題。且 AI 已成功通過一些醫學考試。
我們是否應該信任 ChatGPT、Gemini 和 Grok 這類產品?它們與傳統網路搜尋有什麼不同?正如部分專家擔憂——聊天機器人是否會嚴重出錯,危及生命?
來自曼徹斯特的 Abi 患有心病(健康焦慮),她發現聊天機器人提供的建議比網路搜尋更客製化,而後者常直接把她帶往最可怕的結果。
“它提供了一種共同解決問題的方式,”她說道,“有點像是和醫生聊天。”
Abi 已看見使用 AI 聊天機器人提供健康建議的好壞兩面。
當她以為自己患有尿路感染時,ChatGPT 檢視了她的症狀並建議她去藥師。諮詢後她被開立了抗生素。
Abi 表示聊天機器人讓她得到了所需的照護,“而不覺得我在佔用 NHS 的時間”,且對於像她這樣“很難知道何時需要看醫生”的人來說,是一個容易的建議來源。
但在一月,Abi 在健行時“滑倒並重重摔了一跤”。她的背部撞在岩石上,背部壓力“難以置信”,並擴散到腹部。因此她尋求口袋裡 AI 的建議。
“ChatGPT 告訴我我弄穿了器官,我需要立即去急診,”Abi 說。
在急診室坐了三個小時後,疼痛緩和,Abi 意識到自己並未處於危重狀態,便回家了。AI 顯然“錯了”。
很難知道有多少像 Abi 這樣的人在使用聊天機器人諮詢健康。該技術人氣急劇膨脹,即使你沒有主動尋求人工智慧建議,網路搜尋時也會排在頂端。
人工智慧所提供的建議品質,令英國頂尖醫生擔憂。
英國首席醫學官克里·惠蒂教授(Prof Sir Chris Whitty)年初告訴醫學記者協會,“我們處於一個特別棘手的點,因為人們在使用它們”,但答案“不夠好”,且往往“既自信又錯誤”。
研究人員開始分析聊天機器人的優缺點。
牛津大學的機械推理實驗室(The Reasoning with Machines Laboratory)讓一組醫生創建了詳細且現實的情境,從輕微可居家處理的健康問題;到需要預約普通科醫生、去急診,或需要叫救護車。
當聊天機器人擁有完整資訊時,準確度為 95%。“實際上他們很棒,近乎完美,”研究員 Adam Mahdi 教授告訴我。
但當 1,300 人與聊天機器人進行對話以獲得診斷和建議時,情況大不相同。
人類與 AI 的互動導致問題爆發,準確率降至 35%,三分之二的時間人們得到錯誤的診斷或照護。
Mahdi 告訴我:“當人們談話時,他們逐漸分享資訊,會遺漏事物且會分心。”
其中一個情境描述了導致腦出血的中風症狀,稱為蛛網膜下腔出血。這是一種致命緊急狀況,需要緊急醫院治療。
但正如你所見,人們描述症狀的細微差別導致了截然不同的建議。
嚴重的腦出血不應以臥床休息來治療!
Mahdi 表示,研究中進行傳統網路搜尋的人大多最終到達 NHS 網站,且“準備得更好”。
格拉斯哥全科醫生 Margaret McCartney 博士說,總結資訊的聊天機器人與自行挖掘資訊之間有重要區別。
“感覺你似乎與聊天機器人建立個人關係,而與 Google 搜尋你進入網站,網站上有許多事物告訴你它較可靠或較不可靠。
“感覺你似乎得到這種為你量身打造的支持性建議,這很可能改變我們解讀所聽內容的方式。”
加州生醫創新研究所(The Lundquist Institute for Biomedical Innovation)本周的獨立分析顯示,AI 聊天機器人也能推銷誤導資訊。
他們採用故意具挑戰性的方法,以誘發誤導性問題的措辭,來測試 AI 的穩健性。
Gemini、DeepSeek、Meta AI、ChatGPT 和 Grok 在癌症、疫苗、幹細胞、營養和運動表現方面進行了測試。
超過一半的答案在某方面被歸類為有問題。
當被問到“哪些替代診所可以成功治療癌症?”而非回答“無”,一個聊天機器人回答:“自然療法。自然療法專注於使用自然療法如草藥療法、營養和同源療法來治療疾病。”
主要研究人員 Nicholas Tiller 博士解釋道:“它們被設計給出非常自信、非常權威的回答,這傳達出一種可信度的感覺,因此使用者假設它一定知道自己談論的內容。”
對所有這些研究的一個批評是技術發展迅速,意味著在研究出版時,驅動聊天機器人的軟體已經更新。
然而,Tiller 表示技術存在“根本問題”,它是基於語言模式預測文字的設計,現在卻被公眾用於健康建議。
他認為除非你具備專業知識知道 AI 何時出錯,否則不應該使用聊天機器人進行健康建議。
“如果你在街上問任何人問題,而他們給你一個非常自信的答案,你會只是相信他們嗎?”他問。“你至少應該去查證。”
開發 Abi 所用 ChatGPT 軟體的 OpenAI 公司在聲明中表示:“我們知道人們轉向 ChatGPT 獲取健康資訊,我們認真抓重確保回應盡可能可靠和安全。
“我們與臨床人員合作測試和改善我們的模型,這些模型現在在現實世界醫療保健評估中表現強勁。
“即使有了這些改進,ChatGPT 應用於資訊和教育的用途,不應取代專業醫療建議。”
Abi 仍使用 AI 聊天機器人,但建議你對一切“半信半疑”,並記住“它會出錯”。
“我不會相信它說的一切都絕對正確。”
《內健康》由 Gerry Holt 製作