Grok涉生成兒童性化圖像 網路守護基金會示警風險
IWF finds sexual imagery of children which 'appears to have been' made by Grok
作者: Chris Vallance | 時間: Wed, 07 Jan 2026 23:01:52 GMT | 來源: BBC
f t
網路守護基金會(IWF)表示,其分析員發現了年齡介於11至13歲之間的女孩「犯罪圖像」,這些圖像「似乎是由」Grok生成。
此AI工具隸屬於埃隆·馬斯克旗下的xAI公司,可透過其網站與應用程式,或社交媒體平台X取得。
IWF表示,他們在一個「暗網論壇」上發現「女孩的性化及無上衣圖像」,用戶聲稱使用Grok創建這些圖像。
BBC已聯繫X與xAI徵求評論。
IWF的恩蓋爾·亞歷山大對BBC表示,類似Grok的工具如今可能「將兒童性化AI圖像帶入主流」。
他指出,這些內容在英國法律下將被歸類為C類——犯罪材料中嚴重性最低的等級。
但他補充,上傳這些內容的用戶隨後使用了另一款非xAI開發的AI工具,創建了A類圖像——最嚴重的等級。
「我們對人們顯然能輕鬆且迅速生成逼真的兒童性虐待材料(CSAM)深感憂慮,」他說。
這家旨在從網路上移除兒童性虐待材料的慈善機構運營一條熱線,供舉報可疑的CSAM,並聘有分析員評估這些材料的合法性與嚴重程度。
其分析員在暗網上發現這些內容——這些圖像並未出現在社交媒體平台X上。
X與xAI此前曾因報導指Grok可用於生成「兒童性化圖像」及為女性「脫衣」而受到通訊管理局(Ofcom)聯繫。
BBC見過社交媒體平台X上的多個例子,用戶要求該聊天機器人修改真實照片,讓女性在未經同意的情況下呈現比基尼造型,或將她們置於性情境中。
IWF表示,他們已收到X上出現此類圖像的舉報,但截至目前尚未評估為符合CSAM的法律定義。
X在先前聲明中表示:「我們對X上非法內容採取行動,包括移除兒童性虐待材料,永久停用帳號,並在必要時與各地政府及執法部門合作。
『任何使用或引導Grok生成非法內容者,將面臨與直接上傳非法內容相同的後果。』」