西維吉尼亞州總檢察長控告蘋果 疏於防堵兒童性虐待內容傳播
Apple sued by West Virginia for alleged failure to stop child sexual abuse material on iCloud, iOS devices
作者: Lora Kolodny | 時間: Thu, 19 Feb 2026 15:17:37 GMT | 來源: CNBC
f t
西維吉尼亞州總檢察長已對蘋果公司提起消費者保護訴訟,指控其未能防止兒童性虐待材料透過iOS設備及iCloud服務儲存與傳播。
共和黨籍的約翰·「JB」·麥庫斯基指控蘋果將隱私品牌形象及自身商業利益置於兒童安全之上,而包括Google、微軟與Dropbox等其他大型科技公司則更積極運用PhotoDNA等系統來打擊此類內容。
微軟與達特茅斯學院於2009年開發的PhotoDNA技術,運用「雜湊比對」機制,能在相關圖像經確認為兒童性虐待材料(CSAM)並通報當局後,自動識別與封鎖此類內容。
2021年,蘋果曾測試自主開發的CSAM檢測功能,可自動識別與刪除兒童剝削圖像,並將上傳至美國iCloud的內容通報給全國失蹤與受虐兒童中心。
但由於隱私倡議者擔憂此技術可能為政府監控開闢後門,並遭調整用於審查iOS裝置上的其他類型內容,蘋果最終終止了該項功能的推進計畫。
此舉並未讓眾多批評者滿意。
2024年,英國反虐待兒童協會指出,蘋果未能在其產品中充分監控、統計並向當局通報兒童性虐待材料。
此外,2024年於加州北區法院提起的訴訟中,數千名兒童性虐待倖存者控告蘋果,指其不應放棄先前的CSAM檢測功能計畫,且因容許此類內容在網路上擴散,導致受害者重溫創傷。
自2014年執行長蒂姆·庫克就此議題發表公開信以來,蘋果一直將自身定位為科技巨頭中最重視隱私的企業。
倘若西維吉尼亞州的訴訟成功,可能強制蘋果進行設計或資料安全層面的調整。該州要求法院判處懲罰性賠償,並頒發禁制令要求蘋果落實有效的兒童性虐待材料檢測機制。
蘋果發言人向CNBC表示:「確保用戶的安全與隱私,特別是兒童的保護,是我們工作的核心。」
該公司特別提到家長控制功能與「通訊安全」等措施,當系統在訊息、共享照片、AirDrop乃至FaceTime視訊通話中偵測到裸體內容時,將自動介入保護兒童,作為其致力提供用戶「安全、保障與隱私」的具體實踐。
發言人補充道:「我們每天都在創新,以應對不斷演變的威脅,並維持最安全、最受信賴的兒童使用平台。」