Meta 即將向家長發出警報:警示子女搜尋自殘或自殺相關詞彙
Instagram to alert parents if teens search for self-harm and suicide content
作者: Richard Morris | 時間: Thu, 26 Feb 2026 16:39:57 GMT | 來源: BBC
f t
使用 Instagram 兒童監護工具的家長將很快會收到警報,若其子女在平台上重複搜尋與自殺或自殘相關的詞彙。
這是母公司 Meta 首次主動通知家長其子女的搜尋行為涉及有害內容,而非僅封鎖搜尋並引導用戶至外部協助資源。
英國、美國、澳洲和加拿大納入 Instagram「青少年帳戶體驗」的家長及青少年將從下週開始收到警報,世界其他地區稍後跟進。
但自殺預防慈善機構莫莉羅絲基金會強烈批評該措施,警告這「可能造成更多危害而非裨益」。
「這項笨拙的公告充滿風險,我們擔心強制揭露可能造成的傷害大於好處,」其執行長安迪·巴羅斯表示。
該組織由莫莉·羅素(Molly Russell)的家人設立,她於 2017 年時年僅 14 歲在看過包含 Instagram 平台的自殘及自殺內容後結束生命。
巴羅斯表示:「每位家長都希望知道孩子是否遭遇困難,但這些脆弱的通知會讓家長陷入恐慌,無法為接下來的敏感且艱難的對話做好準備。」
Meta 表示,關於子女在 Instagram 短時間內搜尋自殺及自殘材料的警報,將附有專家資源協助他們應對艱難的對話。
然而,設立莫莉羅絲基金會紀念她的父親伊恩,對警報仍持懷疑態度。
「想像你是青少年的父母,收到職場訊息說『你的孩子在考慮結束生命』……我不知道我該如何反應,」他告訴 BBC。「即使 Meta 表示會提供支援,但當得知關於孩子的消息時那一刻的恐慌中,我認為這不是很有道理的做法。」
包括莫莉羅絲在內的多個慈善機構表示,Meta 的公告幾乎承認了在 Instagram 保護兒童方面還可做得更多。
Papyrus 預防青少年自殺慈善機構執行長蓋德·弗林告訴 BBC:「我們歡迎 Instagram 的公告,但 Meta 正忽視真正問題:兒童和年輕人繼續被吸入黑暗且危險的網絡世界。」
他告訴 BBC:「家長每天聯繫我們表示對子女網上狀況感到擔憂,他們不希望收到孩子搜尋有害內容後的警告,也不希望被缺乏深思的演算法強塞資訊。」
兒童慈善機構 5Rights 執行總監利恩達·巴林頓 - 勒奇表示,「如果 Meta 要真正重視兒童安全,它需要重新評估並讓系統基於設計和預設適齡化。」
巴羅斯還引用基金會先前的研究,指出 Instagram 仍「主動」向「脆弱年輕人」推薦關於憂鬱、自殺和自殘的有害內容。
「重點應在於解決這些風險,而非做出另一項諷刺時機的公告將責任推給家長。」他補充道。
Meta 爭辯稱該組織去年九月公布的發現「誤導了我們賦予家長權力並保護青少年的努力」。
Instagram 的青少年帳戶警報旨在告知家長,其子女在平台上的行為及搜尋習慣發生突變。
Meta 在部落格文章中說,該措施建立在 Instagram 現有的青少年保護之上,包括在應用程序中隱藏與自殺或自殘相關的內容,並封鎖搜尋有害或危險內容。
警報將透過電子郵件、簡訊、WhatsApp 或在 Instagram 應用程序內發送給家長,視 Meta 擁有家庭聯絡資訊而定。
Meta 表示,Instagram 的新警報(來自用戶搜尋模式分析)偶爾可能在不需擔憂的情況下通知家長,將採取「謹慎為先」的態度。
網絡霸凌研究中心共同主任西米爾·辛杜哈表示,收到警報對任何家長而言「顯然」會感到驚慌。但告訴 BBC:「重要的不僅是警報本身,而是家長立即收到的資源品質和有用性,以指導他們接下來該做什麼」。
「你不能只給家長發送通知就任其自生自滅,似乎 Meta 明白這一點,」辛杜哈補充道。
Instagram 表示,未來幾個月將應用類似警報,若青少年與其 AI 聊天機器人討論自殘或自殺(因為兒童「越來越多轉向 AI 尋求支援」)。
社交媒體公司面臨全球政府日益增加的壓力,使其平台對兒童更安全。年初,澳洲禁止 16 歲以下使用社交媒體 - 西班牙、法國和英國考慮類似措施。
監管機構和立法者同時密切審查大型科技公司對年輕用戶的商業行為。Meta 老馬克·祖克伯格和 Instagram 總裁阿達姆·莫塞里最近在美國出庭,為公司針對被指控鎖定較年輕用戶的聲明辯護。
額外報導:詹姆斯·凱利
如果您受到本文提到的問題影響,可透過 BBC Action Line 獲得幫助和支援。