SURL News

Instagram推新警示功能 家長可獲知青少年自殘相關搜尋行為

Instagram to alert parents if teens search for self-harm and suicide content

作者: Richard Morris | 時間: Thu, 26 Feb 2026 16:39:57 GMT | 來源: BBC

使用Instagram兒童監督工具的家長,若其子女在平台重複搜尋自殺或自殘相關字詞,將收到系統警示通知。

這也是Meta首次主動向家長通報子女在Instagram搜尋有害內容的行為,而非僅封鎖搜尋結果並引導至外部求助資源。

參與Instagram青少年帳號計畫的英國、美國、澳洲及加拿大家長與青少年將於下周起接獲此項警示通知,其他地區將於後續陸續上線。

但自殺防治慈善機構Molly Rose基金會強烈批評此項措施,警告「可能弊大於利」。

該機構執行長Andy Burrows表示:「這項草率宣布充滿風險,我們擔心強制揭露的做法可能造成更大傷害。」

該基金會由2017年因瀏覽Instagram等平台自殘與自殺內容而輕生的14歲少女Molly Russell家屬成立。

Burrows指出:「每位家長都想知道孩子是否遇到困難,但這些薄弱的通知將使家長陷入恐慌,且未做好準備進行後續需要的敏感情緒對話。」

Meta表示,當青少年在短時間內重複搜尋自殺或自殘內容時,系統除發送家長警示外,也會提供專業資源協助處理相關對話。

然而,以Molly Russell命名設立該基金會的父親Ian仍對此舉持保留態度。

他向BBC表示:「想像身為家長卻在工作時收到『你的孩子正在考慮結束生命』的訊息……我不知道自己會如何反應。即便Meta聲稱會提供支援,在得知孩子狀況的當下,這種做法恐怕不夠謹慎。」

包括Molly Rose基金會在內的多家慈善機構指出,Meta的宣布幾近承認現有兒童保護機制尚有不足。

預防青少年自殺慈善機構Papyrus執行長Ged Flynn表示,雖然歡迎此舉,但Meta「忽略真正問題:兒童與年輕人持續被捲入黑暗危險的網路世界」。

他補充:「家長每天聯繫我們表達對孩子網路安全的憂慮,他們希望避免子女接觸有害內容,而非事後由毫無思考的演算法通報結果。」

兒童慈善機構5Rights執行長Leanda Barrington-Leach則呼籲:「若Meta真重視兒童安全,應重新設計系統,讓其預設即符合不同年齡層需求。」

Burrows亦引用基金會先前研究指出,Instagram仍「持續」向「脆弱青少年」推薦憂鬱、自殺與自殘的有害內容。

他強調:「重點應在解決這些風險,而非發布刻意安排的聲明,將責任轉嫁給家長。」

Meta則駁斥該機構去年九月發布的研究結果,聲稱其「誤解我們賦權家長與保護青少年的努力」。

Instagram青少年帳號警示功能旨在偵測兒童在平台行為與搜尋習慣的突然變化。

Meta在部落格文章中表示,新措施建立於現有青少年保護機制之上,包括隱藏自殺或自殘內容、封鎖危險關鍵字等。

警示通知將透過電子郵件、簡訊、WhatsApp或Instagram應用程式發送,視Meta所掌握的家庭聯繫資訊而定。

Meta坦言,基於使用者搜尋模式分析的新警示系統偶爾可能在無需憂慮時觸發,但會「寧可謹慎過頭」。

網路霸凌研究中心共同主任Sameer Hinduja指出,這類通知對家長而言「顯然會造成驚嚇」。

但他向BBC表示:「關鍵在於家長接獲通知時所獲得資源的品質與實用性,而非通知本身。」

他補充:「不能僅發送通知就把家長丟在一旁,看來Meta確實理解這點。」

Instagram表示未來數月也將針對青少年向AI聊天機器人提及自殘或自殺內容的情況推出類似警示,因「兒童越來越依賴AI尋求支援」。

全球政府對社群媒體業者施加愈來愈大壓力,要求其平台對兒童更安全。

今年初,澳洲禁止16歲以下使用社群媒體,西班牙、法國與英國也考慮跟進。

監管機構與立法者同時密切檢視科技巨頭針對年輕用戶的商業行為。

Meta執行長Mark Zuckerberg與Instagram負責人Adam Mosseri近期在美國出庭,為公司被控針對較年輕用戶的指控進行辯護。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: