SURL News

Meta 與 TikTok 醜聞曝光:為求競爭與獲利,故意放任有害內容

Meta and TikTok let harmful content rise after evidence outrage drove engagement, say whistleblowers

作者: Marianna Spring | 時間: Mon, 16 Mar 2026 06:10:55 GMT | 來源: BBC

Meta 與 TikTok 醜聞曝光:為求競爭與獲利,故意放任有害內容

社群媒體巨頭內部線人揭露,Meta 與 TikTok 為爭奪用戶注意及提升股價,故意降低安全標準,放任暴力、仇恨言論等有害內容。TikTok 員工指責公司優先維護與政治人物的關係以避開監管,犧牲兒童安全案例處理速度。Meta 研究員指出演算法優化常權衡獲利與用戶福祉,導致欺凌與仇恨言論盛行率上升。揭發者提供內部文件證實平台明知演算法放大傷害卻未妥善因應,呼籲刪除危險應用程式並重視真實風險。

社群媒體巨頭在內部研究顯示其演算法受憤慨情緒驅動後,仍決定讓更多有害內容出現在用戶資訊流中。線人告訴 BBC。

十幾位揭發者與內部人士揭露這些公司如何為了爭奪用戶注意而冒險犧牲安全,涉及暴力、性勒索與恐怖主義等議題。

Meta 工程師表示上層指示允許更多「邊緣性」有害內容——包括厭女情結與陰謀論——出現在用戶資訊流中,以競爭 TikTok。「他們暗示是因為股價下跌,所以得這樣做,」該工程師表示。

TikTok 員工向 BBC 展示罕見的內部儀表板資料,其中包括用户投訴以及其他證據,顯示員工曾受指示優先處理多起政治人物的案件,而非一系列涉及兒童的有害貼文報告。「決定是為了「維持與政治人物的強韌關係」,以避免監管或禁令威脅,並非因為用戶面臨風險,TikTok 員工表示。

接受 BBC 紀錄片《憤怒機器內部》採訪的揭發者,提供了緊密產業對 TikTok 爆炸式成長後的應對反應視野,其高参与度推薦短片演算法顛覆了社群媒體,讓對手努力追趕。

Meta 高級研究員 Matt Motyl 表示,公司的 TikTok 競爭對手 Instagram Reels 於 2020 年推出時未設有足夠防護。與 BBC 分享的內部研究顯示,Reels 上的評論欺凌與騷擾、仇恨言論及暴力或煽動案件的盛行率顯著高於 Instagram 其他部位。

公司投入 700 名員工發展 Reels,而安全團隊拒絕獲准兩名專門人員處理保護兒童問題,另有 10 名協助維護選舉正直性,另一位前 Meta 高層表示。

Motyl 向 BBC 提供了數十份他形容為「顯示這些平台對用戶造成各種危害的高級研究文件」。其中包含證據顯示 Facebook 清楚認知其演算法所引發的問題。

一項內部研究指出,演算法為內容創作者提供了一條「以犧牲觀眾福祉為代價來最大化利潤」的路徑,並表示「我們演算法目前創造的財務激勵似乎與將世界拉近的使命不一致」。報告指出 Facebook 可以「選擇無所作為繼續餵養用戶快食物,但這只能維持有限時間」。

Meta 回應揭發者說法稱:「任何暗示我們刻意為獲利而放大有害內容的說法都是錯誤。」TikTok 則聲稱這是「虛構聲稱」,並投資技術防止有害內容被觀看。

Ruofan Ding 表示演算法是「黑盒子」,內部運作難以審查,他於 2020 至 2024 年間擔任機器學習工程師開發 TikTok 推薦引擎。他表示很難建立完全安全的系統,因為他們無法控制深度學習演算法本身。

他說工程師並不太注意貼文內容,「對我們來說,所有內容都只是 ID,一個不同的號碼。」他稱依靠內容安全團隊移除有害貼文以便演算法不會推廣,比喻其與汽車不同團隊負責不同部分的工作關係。「有負責加速力的團隊、引擎團隊,對吧?所以我們期望負責煞車系統的團隊做得很好,」他表示。

但他指出 TikTok 試圖幾乎每週改進演算法以增加市佔率時,他开始看到更多「邊緣性」內容或有問題的貼文,這些內容僅在用戶瀏覽影片一段時間後才會出現。「邊緣性內容」是社群媒體公司常用術語,通常指有害但合法的貼文,包括厭女、種族主義與色情化貼文,以及陰謀論內容。

青少年告訴 BBC,讓用戶表示不希望看到有問題的內部的系統並未運作,他們仍被推薦暴力與仇恨內容於主要社交網站上。其中一個極端案例,另一年輕人 Calum 現年 19 歲,稱自己從 14 歲時「被演算法激進化」。他說演算法向他展示令他憤慨的內容,導致他採取種族主義與厭女觀點。

「影片讓我興奮,但並非真正好的意義,」他說。「它們只是讓我非常生氣。它很大程度上反映了我內心的感受,我對身邊的人感到憤怒。」

英國反恐怖警察專員每年分析數千條社群媒體貼文,表示近期看到反猶、種族主義、暴力及極右翼貼文「正常化」現象增加。「人們對現實世界的暴力脫敏了,他們不害怕分享自己的觀點,」一名警官表示。

2025 年幾個月期間,BBC 定期與 TikTok 信任與安全團隊成員對話,我們稱之為 Nick。我們得以在筆記型電腦上查看公司內部儀表板,詳述其特定信任與安全團隊處理的案例及回應方式。「如果你每天都因為受指使做的事情而感到內疚,在某個時候你可以決定,我應該說些什麼嗎?」Nick 表示。

他評估的案件量難以保持對用戶安全,這讓青少年和兒童特別處於風險之中,他補充。裁員與重新組織某些調度團隊——其中一些角色正被 AI 技術取代——在他看來已限制了有效處理這類內容的能力。

Nick 表示連結「恐怖主義、性暴力、物理暴力、虐待、販運」的材料似乎正在增加。他說應用程式推薦的現實,以及針對有害內容採取的行動,「在許多方面與網站公開說明的非常不同」。

BBC 看到 Nick 提供的證據,顯示 TikTok 將一些涉及政治人物相對瑣碎的案例評為比幾個涉及青少年受傷害案例更高的安全團隊審查優先順序。舉例而言,一名被戲稱為像雞的政治人物的案件優先於一名報告在法國遭遇網絡霸凌與身份假冒的 17 歲受害者,以及一名投訴色情化圖像指認為她的內容被分享到該應用程式的 16 歲伊拉克受害者。

Nick 關於伊拉克案例表示:「如果你看這個報案來自的國家,風險非常高因為涉及未成年人且涉及性勒索,然後你可以看到這裡的優先順序。緊急性不高。」Nick 也展示了一些鼓勵人們加入恐怖組織或犯罪的貼文未被標示為最高優先級的例子。

當信任與安全團隊要求優先處理涉及年輕人的案例而非政治案例時,爆料者表示他們被指示不要這樣做,並繼續按照給定的排名處理案例。Nick 表示優先處理的原因是——在他看來——公司最終較少關心兒童安全,而是更在乎維護與政治人物及政府的「強韌關係」,以避免會損害業務的監管或禁令。

Nick 表示當他和員工向管理層提出部分擔憂時,他們未接收這些意見因為他們「並未在日常基礎暴露於此類內容」。Nick 給使用 TikTok 兒童的父母的直白建議是:「刪除它,盡可能讓他們遠離應用程式。」

TikTok 聲稱拒絕政治內容優先於青少年安全觀點,並聲稱此說法「根本誤解其調度系統的運作方式」。Nick 所在的團隊屬於更大的安全系統的一部分,多個團隊負責審查內容投訴。TikTok 表示:「特定問題的特殊工作流程不會導致兒童安全案件的除級,這些案件由並行審查結構內的專用團隊處理。」

TikTok 發言人表示批評聲忽略了「TikTok 讓千萬人發掘新興趣、尋找群體以及支持蓬勃創造者經濟的現實」。公司表示青少年帳戶具有超過 50 項預設安全功能與設定,可自動開啟。它還表示投資技術幫助防止有害內容被觀看,維持嚴格推薦政策並提供功能讓人們量身訂製體驗。

Matt Motyl 曾於 Meta 及其繼任者 Meta 工作至 2021 年資深研究員,表示這是公司試圖「模仿」TikTok 推出的「獨特產品」。他於 2019 年至 2023 年間的工作涉及在有時多达數以百萬計的人身上運行大規模實驗,通常用戶對此「毫不知情」,測試內容如何在資訊流中排名的。

「Meta 的產品被超過 30 億人使用,他們能讓你停留越久,賣出越多廣告,賺取越多錢。但這一點非常重要,當他們搞砸時,真的會發生很壞的事,」他表示。特別是在 Reels 方面,Motyl 表示方法是以無論對用戶影響為代價越快越好。他說保護人們免受有害內容與参与度之間存在「常見權衡」。

Meta 在他於 BBC 分享的其中一篇研究論文中顯示在 Reels 推出後努力防止傷害。這表明 Reels 貼文的有害評論盛行率高於主 Instagram 資訊流:霸凌與騷擾高 75%,仇恨言論高 19%,暴力與煽動高 7%。

他說存在「權力失衡」,因為安全人員必須獲得負責 Reels 的團隊同意才能引入會改善用戶安全的產品或功能。Reels 員工有「不讓這些產品推出,因為有毒內容比非有毒內容獲得更多參與度」的激勵,Motyl 表示。

Brandon Silverman 其社交媒體監控工具 Crowdtangle 於 2016 年被 Facebook 收購,當時參與部分高層討論並描述 CEO Mark Zuckerberg「非常神經質」關於競爭。「當他覺得有潛在競爭力量時,沒有多一點錢不會嫌多,」Silverman 表示。

他說在這個時期他看到安全團隊在擴大 Reels 的重點下努力爭取招募少量人員的批准。「另一支團隊去說,哦我們剛才得到了 Instagram Reels700 人,我還說好的,」他表示。

一位前 Meta 工程師(我們稱之為 Tim)表示,隨著公司尋求與 TikTok 競爭,更多邊緣性有害內容被允許出現在網站上。他的團隊專注於減少此類內容,直到「業務定位」改變。「你輸給了 TikTok,因此你的股價必須受損。人們開始變得神經質和反應過度,他們就像,讓我們做任何能追上來的東西。下一季度我們哪裡能得到類似 2%、3% 的營收?」Tim 表示。

他稱該決定停止限制可能有危害但不違法——且用戶正在參與的內容——是由 Meta 高級副總裁做出的,Tim 認為此人直接向 Mark Zuckerberg 匯報。

就在 Facebook 辯論它只是「社會鏡像」的時期左右,Motyl、資深研究員與 BBC 分享的內部文件揭示公司知道它在放大激怒人們甚至引發傷害的內容。這些文件概述敏感內容——可能包括觸碰人們道德信念的材料或煽動暴力的貼文——更有可能觸發對網站的反饋和互動,特別是如果它引起憤怒。

「鑑於不成比例的高参与度,我們的演算法假設用戶喜歡那些內容並想要更多,」研究指出。

Silverman 表示 Meta 領導層最初似乎不確定如何應對平台上的有毒內容,有一段時間公司「真正反思」。但他表示他們的立場「開始固化成一種種防禦性」。他們態度認為「我們不對社會所有極化負責,」他表示。「沒有人說你要對所有極化負責。我們只是說你為此做出貢獻,可能是以你不需要的方式。如果你只做一些改變,你可能不會這麼大程度地為此做出貢獻,」Silverman 表示。

Meta 發言人否認揭發者說法。「事實是,我們在平台上保護用戶有嚴格政策,並在過去十年對安全和安全進行了重大投資,」發言人表示。公司表示已「真實改變保護線上青少年」,包括引入新青少年帳戶功能「具有內建保護和父母管理其青少年體驗的工具」。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: