SURL News

慈善機構揭AI工具Grok疑被用於生成兒童性虐待影像

Elon Musk's Grok AI appears to have made child sexual imagery, says charity

作者: Chris Vallance | 時間: Thu, 08 Jan 2026 09:58:38 GMT | 來源: BBC

網際網路監察基金會(IWF)表示,其分析師發現標示年齡介於11至13歲女孩的「犯罪影像」,這些影像「似乎係由」Grok生成。

這款AI工具由伊隆·馬斯克所屬的xAI公司開發,用戶可透過其官網、應用程式或社交媒體平台X使用。

IWF指出,他們在某「暗網論壇」上發現這些「性化且裸露上身的女孩影像」,論壇用戶聲稱使用Grok創建該內容。

BBC已聯繫X與xAI徵求回應。

IWF的恩蓋爾·亞歷山大(Ngaire Alexander)向BBC表示,諸如Grok之類的工具如今可能「將兒童性愛AI影像帶入主流」。

她指出,這些內容依英國法律將歸類為C類——犯罪內容中嚴重性最低的級別。

但她補充說明,上傳者隨後使用另一款非xAI開發的AI工具,生成了最嚴重類別的A類影像。

「我們對人們能如此輕鬆且迅速地生成逼真兒童性虐待材料(CSAM)感到極度擔憂,」她說。

該慈善機構旨在從網路刪除兒童性虐待材料,設有舉報熱線供通報可疑內容,並雇用分析師評估內容的合法性與嚴重程度。

分析師在暗網上發現這些素材——這些圖片並未出現在社交媒體平台X上。

此前,英國通訊管理局(Ofcom)曾因Grok被報導可用於生成「兒童性化影像」及「為女性脫衣」而聯繫X與xAI。

BBC已發現X平台上有數則案例,用戶要求聊天機器人修改真實圖片,使女性在未經同意的情況下穿著比基尼,或置於性情境中。

IWF表示,他們已接獲關於此類影像的通報,但迄今尚未認定其符合兒童性虐待材料的法定定義。

X先前發表聲明表示:「我們會針對X平台上的非法內容(包括兒童性虐待材料)採取行動,透過刪除內容、永久停權帳號,並視需要與各國政府及執法單位合作。」

「任何使用或引導Grok生成非法內容者,將面臨與上傳非法內容同等的後果。」

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: