SURL News

OpenAI 指示 AI 工具停止談論「哥布林」,術語曾隨機出現在回應中

OpenAI tells ChatGPT models to stop talking about goblins

作者: Liv McMahon | 時間: Thu, 30 Apr 2026 13:28:04 GMT | 來源: BBC

OpenAI 指示 AI 工具停止談論「哥布林」,術語曾隨機出現在回應中

OpenAI 因發現 AI 工具隨機在回應中出現「哥布林」等用語,已指示相關工具停止提及。調查顯示,這是模型內建「極客性格」無意中獎勵的結果。自 GPT-5.1 推出後,哥布林提及率上升 175%,儘管部分無害,但頻次異常引人關注。此事件反映生成式 AI 在追求人格化互動時,可能因微調導致準確性下降或產生幻覺。專家提醒用戶勿輕信 AI 生成的醫療資訊,如同 Google 曾出現建議吃石頭等荒謬錯誤,顯示 AI 錯誤有時離奇卻可能影響信任。

ChatGPT 開發者 OpenAI 不得不指示其部分 AI 工具停止談論「哥布林」,因為發現該術語隨機滲入了回應中。

公司在週四的博客文章中表示,察覺到 ChatGPT 及由其最新旗艦模型 GPT-5 驅動的其他工具中使用的回應裡,對神話生物(哥布林)及「小鬼」的提及頻率增加。

用戶和員工標記問題被描述為「小哥布林」後,OpenAI 採取了減輕問題的措施,包括指示其程式碼代理 Codex 除非相關否則不要提及它們。

它發現其為 ChatGPT 開發的「極客性格」無意中被激勵獎勵提及哥布林。

此問題突顯了 AI 企業在應對系統及其訓練潛在獎勵和強化錯誤(如語言習慣)方面的挑戰。

OpenAI 表示,在 11 月推出 GPT-5.1 後,首先注意到對哥布林、小鬼和其他生物的提及頻率增加。

公司於週四的博客文章中寫道:「用戶投訴該模型在對話中奇怪地過於親切,這促使調查特定的語言習慣。」

此外,有研究人员看到幾次「哥布林」提及後要求檢查,開發者發現自 GPT-5.1 推出以來,該詞出現在 ChatGPT 回應中的次數增加了 175%。

同時他們發現「小鬼」的提及增加了 52%。

雖然增幅很大,但占整體回應的比例可能很小。

根據 OpenAI,「回答中的一個『小哥布林』可能無害,甚至可愛」,但他們在輸出中出現頻率增加值得調查。

在 OpenAI 詳細說明此問題的博客文章之前,一些社交媒體用戶指出,指示公司程式碼助手 Codex 在用戶互動中如何行為的程式碼行中有一個奇怪細節。

除了指示其避免陳詞濫調外,還表示 Codex 應「絕對避免談論哥布林、小鬼、浣熊、精靈、巨魔、歐格鴿子或其他動物或生物,除非它們絕對且明確地與用戶查詢相關」。

一位在 r/ChatGPT 子版發帖的 Reddit 用戶稱之為「真的瘋狂」。

「為什麼 GPT 5.5 針對『浣熊』、『哥布林』和『鴿子』有了禁止令?」

雖然其他一些社交媒體用戶推測這可能是為了營造其 AI 工具的宣傳熱度,但一名公司研究員予以否認——在週三對 X 上用戶的回覆中寫道「這真的不是一個行銷噱頭」。

OpenAI 表示,在其博客文章中,它添加了指示以遏制 Codex 及其基礎模型對「哥布林的特殊親和力」。

它解釋道,核心問題似乎出在訓練其模型以特定人格風格溝通時——在本案中是其「極客性格」。

它發現該系統會獎勵提及哥布林、小鬼和其他生物。

雖然已停用,它表示測試發現該人格負責 ChatGPT 中所有「哥布林」提及的 66.7%。

這種所謂的習慣,若在某處獲獎,可能會滲透到更廣泛的模型訓練中。

此舉伴隨著產業向於打造更具人格化、更健談的 AI 聊天機器人以提升用戶參與度的廣泛轉變。

然而,隨著他們這麼做,專家警告其捏造內容的潛力——行業稱之為「幻覺」——可能會加劇。

牛津網際網路研究所最近一項研究發現,調整模型以擁有更溫暖親切的性格可能會導致「準確性交換」,導致系統犯更多錯誤或重申用戶的錯誤信念。

專家也警告用戶不要輕信聊天機器人常有的事實性陳述,特別是涉及健康和醫療建議時。

但,就像 OpenAI 的哥布林怪癖一樣,生成式 AI 錯誤有時會更離奇且無害。

2024 年 5 月,Google 的 AI 聊天機器人因告訴用戶可以吃石頭和「用膠水粘披薩」而遭到廣泛嘲笑。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: