SURL News

Meta 與 Google 敗訴背後:內部研究成法律責任,AI 時代需更重視透明度

Meta's court losses spell potential trouble for AI research, consumer safety

作者: Jonathan Vanian | 時間: Sun, 29 Mar 2026 17:15:02 GMT | 來源: CNBC

十多年前,Meta(當時尚稱為 Facebook)聘請社會科學研究者分析社交網絡服務對用戶的影響。這是該公司及其同行表明公司願意深入了解創新帶來的益處與潛在風險的一種方式。

但 Meta 週四的訴訟敗績顯示,研究人員的工作反而可能成為負擔。曾在兩場審判(一處在新墨西哥州,另一處在洛杉磯)中作證的前 Facebook 高管 Brian Boland 表示,Meta 內部研究和文件的駭人結論似乎與該公司對外塑造的形象相矛盾。兩場審判的陪審團裁定 Meta 對網站監管不足,讓兒童置身於危險之中。

Mark Zuckerberg 的公司在大約幾年前開始限制研究團隊,這是在 Facebook 研究者 Frances Haugen 成為知名吹哨人之後。隨後的新興科技企業,如 OpenAI 和 Anthropic,大量投資於研究人員,並要求他們研究現代 AI 對用戶的影響並發表研究結果。

隨著 AI 目前因對部分用戶造成的有害影響而受到格外關注,這些公司必須考慮是否有利於繼續資助研究或壓制相關研究。

Boland 在一次採訪中表示:「曾經有一段時間,內部成立了團隊可以開始檢視事物,在很短暫的窗口期內,你擁有了一些非常出色且能夠更自由地檢視這些產品發生狀況的研究人員,這比我理解他們今天所擁有的自由度還要大。」

Meta 此次兩場敗訴案涉及不同案件,但有一個共同主題:公司未向公眾分享其關於產品危害的所學內容。

陪審團成員必須評估數百萬份企業文件,包括高管電子郵件、演示文稿以及 Meta 員工進行的內部研究。這些文件包括看似顯示相當比例的未成年 Instagram 用戶收到不歡迎的性接觸的內部調查。還有 Meta 最終中止的研究顯示,減少 Facebook 使用次數的人較少抑鬱和焦慮。

案件中的原告律師團隊並未僅依賴內部研究進行論證,但這些研究有助於強化他們關於 Meta 被指控有罪的立場。Meta 的防禦團隊則爭辯稱某些研究已過時、斷章取義且具有誤導性,呈現了錯誤的公司運營方式和安全觀點。

Boland 說:「陪審團聽到了雙方的故事以及對事實的公平陳述,並根據所見內容做出決定。」他接著表示:「兩場案件的陪審團都做出了明確的裁決。」

Meta 和曾在洛杉磯審判中同樣為被告的 Google YouTube 表示將提出上訴。

Lisa Strohman 是一名心理學家和律師,曾擔任新墨西哥州訴訟案件的內部專家顧問。她表示,Meta 及整個科技業的領導者可能以為可以利用內部研究來博得公眾好感。

Strohman 表示:「我認為他們未能意識到研究者也是父母和親屬成員。我認為他們沒有體悟到,這些人不會被收買。」

當研究結果洩露給公眾時,原本期待獲得公關戰果的執行長們反而吃了虧。Meta 最受損的事件發生在 2021 年,當時前 Facebook 產品經理轉職為吹哨人 Haugen 洩露了大量文件,暗示公司知曉其產品的潛在危害。

「這些洩漏在全球範圍內是一個重大轉折點——不僅對公司本身,也對研究者、政策制定者及廣泛公眾產生了影響,」非營利組織「兒童與螢幕:數位媒體與兒童發展研究所」(Children and Screens: Institute of Digital Media and Child Development)的研究與項目主任 Kate Blocker 表示。

洩漏事件也導致 Meta 和科技業發生了重大變化,開始剔除可能對公司不利或無益的研究。許多研究被指控的危害和相關問題的研究團隊已被裁減,CNBC 此前曾報導。有些公司還開始移除第三方研究者用於研究其平台的服務工具和功能。Blocker 表示:「公司現在可能將持續性研究視為潛在負債,但獨立第三方研究必須繼續獲得支持。」

Tech Oversight Project(科技監督項目)的執行主管 Sacha Haworth 指出:「本週審判中使用的許多內部研究並無新揭露,許多文件此前已由其他吹哨人公布。但這些審判增加了提供必要背景的具體內容,例如電子郵件、字句、截圖、內部營銷演示文稿和備忘錄等。」

隨著科技業目前積極向 AI 推進,包括 Meta、OpenAI 和 Google 在內的公司優先考慮產品而非研究和安全性。這一趨勢讓 Blocker 感到擔憂,她表示:「就像過去的社群媒體一樣,公眾對 AI 公司研究自身產品的內容缺乏可見性。」

Blocker 表示:「AI 公司似乎主要研究模型本身——模型行為、模型可解釋性和對齊——但在機器人對話和數位助手對兒童發展影響方面的研究存在顯著差距。AI 公司有機會避免重複過去的錯誤——我們迫切需要建立透明度與存取系統,向公眾分享這些公司關於其平台的所學內容,並支持進一步的獨立評估。」

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: