IWF警示:Grok或使兒童性化AI影像主流化
IWF finds sexual imagery of children which 'appears to have been' made by Grok
作者: Chris Vallance | 時間: Wed, 07 Jan 2026 23:01:52 GMT | 來源: BBC
f t
互聯網觀察基金會(IWF)表示,其分析師發現了年齡介於11至13歲女孩的「犯罪影像」,這些影像「似乎是由」Grok創建。
這項AI工具由埃隆·馬斯克的xAI公司擁有,可透過其網站、應用程式或社交媒體平台X取得。
IWF表示,它在「暗網論壇」上發現了「女孩的性化及赤裸上身影像」,用戶聲稱他們使用Grok創建了這些影像。
BBC已聯繫X及xAI置評。
IWF的恩蓋爾·亞歷山大(Ngaire Alexander)向BBC表示,諸如Grok之類的工具現在可能「將兒童性化AI影像帶入主流」。
他表示,這些材料根據英國法律將被歸類為三級——犯罪材料中嚴重性最低的一級。
但他指出,上傳這些材料的用戶隨後使用了另一款非xAI開發的AI工具,創建出一級影像——最嚴重的類別。
「我們極度關注人們似乎能以多麼容易和快速的方式生成高度逼真的兒童性虐待材料(CSAM),」他表示。
該慈善機構旨在從網際網路移除兒童性虐待材料,設有熱線供舉報疑似CSAM,並聘請分析師評估這些材料的合法性與嚴重性。
其分析師在暗網上發現這些材料——這些影像並未出現在社交媒體平台X上。
此前,通訊管理局(Ofcom)已聯繫X及xAI,因有報告指出Grok可用於製作「兒童性化影像」及脫去女性衣物。
BBC在社交媒體平台X上看到多個例子,人們要求聊天機器人修改真實影像,使女性未經同意穿著比基尼,或將她們置於性情境中。
IWF表示,它已收到關於X上此類影像的舉報,但這些影像至今尚未評估為符合兒童性虐待材料的法律定義。
X在早前聲明中表示:「我們對X上的非法內容(包括兒童性虐待材料)採取行動,包括移除內容、永久停用帳號,以及視需要與地方政府和執法部門合作。使用或指示Grok生成非法內容者,將承受與上傳非法內容相同的後果。」