臉部情緒解讀器
FACE READERS
13 FEB 2025 2:00 PM ETBYCHRISTA LESTÉ-LASSERRE
f t清晨六點,在英格蘭東南部的鄉村,霧氣繚繞中,數百隻粉白色的母豬正醒來準備吃早餐。牠們鼻息咻咻、口水直流,急不可耐地朝著數十個餵食槽走去,互相推擠著爭奪早飯。
但首先,牠們得先拍照。
當每隻豬擠進自己的餵食槽時,一台小型攝影機會拍下牠們的臉部照片。不到一秒鐘內,一套人工智慧(AI)系統就會根據牠們的鼻子、耳朵、眼睛和其他面部特徵來辨識出牠們。有了這些資訊,AI會指示將量身訂做的餐點射入食槽。
同時,該系統還會繼續分析這張照片,尋找其面部表情中可能顯示痛苦、生病或情緒困擾的跡象。如果發現任何異常,它就會立即向農場主發出警報——那位正在隔壁房間享受早晨咖啡的人。
這些飢餓的小豬是「智能豬」系統的無辜測試者,該系統由英國布里斯托大學西英格蘭分校(UWE)和蘇格蘭農業學院(SRUC)的科學家們開發,旨在解決動物福利中的基本問題:我們人類智人並不是最擅長理解動物感受的生物。
智能豬團隊並非孤軍作戰。世界各地的科學家正利用人工智慧來解讀從羊到馬再到貓等動物的表情。有些人已經開發出了比最專注的人類更快更準確地識別痛苦和困擾跡象的演算法。
這些工具可能會開啟一個新的動物照護時代,將健康、福利和保護放在更高的優先位置,英國布里斯托大學西英格蘭分校(UWE)的機器視覺工程師梅爾文·史密斯說。他領導設計了智能豬系統。有誘人的跡象表明這些工具可以走得更遠。最終,人工智慧甚至可能在解讀一系列複雜情緒方面超越人類,如幸福、平靜、挫敗或恐懼等,這些感受對於我們要給動物最好的生活同樣重要。
但像大多數考慮到人工智慧能力的科學家一樣,動物行為研究人員也擔心過度依賴機器,特別是在動物福利問題上。蘇格蘭農業學院(SRUC)的動物行為學家艾瑪·巴克斯特與史密斯合作說:「也許機器最終會比我們更好;我不知道。我希望專家們有空間確保人工智慧確實在做它所聲稱的事情。」
科學家早就知道,像我們一樣,動物們會通過面部表情來表達自己的感受。查爾斯·達爾文在1872年出版的《人類和動物的情感表現》一書中建議,面部表情是一種「共享語言」,這種能力必須是在我們的進化史深處演化的。
布里奇特·沃勒,諾丁漢特倫特大學的心理學家說,達爾文的理論主要基於解剖學。哺乳動物——包括人類——有很多共同的面部肌肉,其目的是創造面部表情。例如,我們與狗共享38%的面部動作,與貓共享34%,與靈長類和馬則共享高達47%。
然而,解剖上的相似性並不代表我們可以像閱讀人類一樣閱讀動物的表情。因此,研究動物溝通的研究人員通常會通過上下文推斷動物正在經歷什麼。
痛苦是最明顯的例子:一匹剛被去勢的馬或一隻跛行且腳部發臭、紅色腐蹄病的羊肯定在感受疼痛。研究動物表情的研究人員也可以誘導輕微不適——例如,在腿上緊緊綁上血壓計袖帶,或者將一點熱辣椒提取物塗抹在皮膚上。另一方面,給動物服用止痛藥通常會讓它們感覺好一些。
同樣地,可以通過短途車程或將牠們與朋友分開幾分鐘來在許多物種中誘導輕微的壓力,例如馬和貓。為了研究小母豬的壓力,巴克斯特只需帶入一些較大的母豬,這些母豬會通過表現出支配行為來威脅她們。焦慮行為,如叫聲和排便,以及應激激素皮質醇水平的急劇上升可以確認動物處於壓力狀態。
科學家已經花了數千小時坐在欄杆和籠子前觀察這些痛苦或壓力情境下的動物表情,然後將其與可能沒有疼痛或壓力的動物進行比較。因此,他們為多種物種開發了「皺眉量表」,根據面部肌肉的運動來衡量動物經歷了多少疼痛或壓力。
例如,瑞典農業科學大學的馬外科醫生皮亞·豪布羅·安德森說,一匹向外轉動耳朵並在眼睛上方形成「焦慮皺紋」的馬比保持耳朵和眼睛放鬆的馬更有可能感到痛苦(見下圖)。她還補充說,馬會用類似的耳部動作和皺紋來表示壓力,但有微妙的不同,例如露出舌頭。
該領域的專家已經擅長手動編碼動物的這些面部動作,這在理論上可以允許進行福利檢查。但安德森說,這是極其乏味的工作。人類編碼人員需要平均100秒來識別各種面部肌肉並編碼它們的位置,在單張圖像中,或者30秒視頻則需要2到3小時。
另一方面,人工智慧可以幾乎瞬間完成相同的任務——但首先,它必須被教導。
在海法大學的辦公室裡,電腦科學家安娜·扎曼斯基度過了許多工作日,以掩蓋來自以色列哈馬斯戰爭中的警報聲和爆炸聲。幾次她匆忙帶著筆記本電腦和心愛的巧克力巴哥犬貝基——也作為她最喜愛的研究模型——進入防空洞。
與加沙大學廢墟中的科學家不同,扎曼斯基的團隊能夠繼續進行研究。他們正在訓練人工智慧系統自動讀取動物的表情——希望改善它們的生活。「將我們的大腦和最好的能力用於如此有益的事業,如動物福利?這確實幫助我們在這些艱難時刻生存下來,」她說。「這讓我們感到充滿希望。」
扎曼斯基首先開發了面部識別軟體來幫助人們找到他們失去的狗。主人將狗的照片上傳到軟件中,該軟件會在由關心的陌生人提交的流浪動物圖像數據庫中掃描匹配項。扎曼斯基和她的共同開發者喬治·馬特維爾——一位為了逃避俄羅斯在烏克蘭戰爭中的徵兵而逃離的博士生——已將這項技術捐贈給了在烏克蘭和巴西洪水區工作的救援組織,幫助數十隻走失的狗與主人團聚。
最近,該團隊轉向了一個更困難的任務:使用人工智慧來精確識別動物面部中往往微妙的不適信號。首先,人工智慧系統必須學習識別對形成表情至關重要的面部部分。這包括手動標記無數動物照片中的重要「地標」——與肌肉運動相關的地標,例如眼睛的上下緣或鼻孔的兩側——並將圖像轉換成大量數字點,就像一本兒童連線遊戲書中的頁面一樣。在肯亞自由職業者的幫助下,馬特維爾和他的同事們已經標記了「數以千計」來自各種物種的面部,包括貓、狗、馬和靈長類動物。
科學家們然後可以將大量標記的照片餵給他們的人工智慧系統,以教導它自行在新圖像中找到這些地標。例如,在2016年的開創性工作中,劍橋大學的電腦科學家彼得·羅賓遜和他的團隊基於分析人類面部的研究開發了一種工具,該工具可以自動找到羊臉上的嘴巴、眼睛和耳朵尖端。一年後,加州大學戴維斯分校的計算機科學家們創造了一個程式,該程式在人類面部圖像上進行訓練,一旦將馬和羊的面部扭曲成更類似人的形狀,就能自動放置地標。
馬特維爾的人工智慧現在已經非常擅長自動標記,甚至可以判斷出如何在無法完全看到的臉部位置放置點——例如當狗把鼻子埋進食盆裡,或者貓從沙發後面探頭時,他說。
一旦完成標記,人工智慧就可以通過分析這些地標之間的距離來識別特定的表情。例如,如果一隻貓張開並緊張她的嘴部——這可能是她感到疼痛的跡象——那麼嘴巴兩側的兩個點之間的距離會變寬。通過將這些表情與研究人員已經創建的痛苦量表進行交叉參考,人工智慧可以尋找疼痛或焦慮的明顯跡象。
科學家通過尋找眼睛、耳朵和其他面部特徵周圍的特定肌肉運動來評估動物的疼痛程度。人工智慧(AI)系統則通過測量臉部「地標」之間的距離(橙色和藍綠色點)做出類似的判斷。
這些人工智慧系統在判定動物是否感到疼痛方面變得比人類更快、更準確,部分原因是它們能夠識別最微小的肌肉運動並找到人類尚未注意到的新疼痛指標。
所有這番費心訓練的結果是,人工智慧系統可以以驚人的精確度診斷福利問題。例如,羅賓遜的人工智慧成功地從一群羊中挑出了幾隻患有蹄腐病或乳腺炎的母羊。而在2023年,扎曼斯基和她的學生馬塞洛·費格爾斯坦發現,他們的人工智慧在判斷貓是否感到疼痛方面準確率達到77%。
儘管這些工具非常有效,但它們仍然依賴人類來做出初步判斷,即應該從動物的表情中尋找什麼。因此,最近的研究人員已經將更多的控制權交給了人工智慧。一些科學家並沒有教導電腦系統去尋找預定的疼痛或壓力表情,而是簡單地向他們的人工智慧提供不同情況下的動物圖像,讓它們通過深度學習過程自行發現這些跡象。
在英國智慧農場試點的Intellipig系統也使用深度學習技術。史密斯說,這個人工智慧不僅在識別單一豬隻方面以97%的準確率超越人類,而且還非常擅長僅通過面部特徵來捕捉壓力。
今年早些時候,扎曼斯基的研究小組發表了研究結果,顯示一個自由學習的人工智慧在檢測羊隻疼痛方面比即使是技術高超的獸醫和行為專家更為出色。該算法在82%的試驗中正確判斷出羊隻從痛苦的手術中恢復;而向四名訓練有素的人類展示羊隻面部圖像時,他們僅有70%的時間判斷正確。
扎曼斯基將這些人工智慧的勝利比作1997年IBM超級電腦深藍在數百萬觀眾面前擊敗俄羅斯國際象棋大師加里·卡斯帕羅夫的歷史性勝利。「就像現在所有人對人工智慧的反應一樣,卡斯帕羅夫的第一反應是恐慌。每個人都認為,『天啊,人工智慧會奪走我的工作!』」扎曼斯基說,「但後來他們明白,人工智慧只是一種非常強大的工具,可以增強自己的能力。」
不過,扎曼斯基警告說,一台可以自由決定在圖像中尋找什麼的電腦可能會抓住錯誤的特徵。一個經典的例子是背景中的時鐘。想像一下,研究人員作為標準科學協議的一部分,每天上午10點拍攝沒有疼痛或快樂動物的照片,然後下午5點拍攝這些動物處於相反狀態的照片。「如果機器看到一幅上午10點的時鐘圖像,它會說這是一隻無痛兔子,」她說——即使事實並非如此。
對人工智慧實際上如何做出決定毫無了解讓研究人員感到不安。「每個人都擔心黑盒子問題,因為他們不知道機器做出了什麼決定,或者為什麼這樣做,」扎曼斯基說。她的學生塔利·希特里特專門在她的論文中研究該小組的人工智慧在動物面部中尋找的具體內容。她使用了一種稱為梯度加權類激活映射(GradCAM)的工具,該工具生成熱圖以顯示人工智慧在做出決策時關注面部的哪些區域。
到目前為止,她發現機器通常認為眼睛區域是最有信息量的部分,這適用於不同的數據集和物種。然而,在貓身上,根據與漢諾威獸醫大學獸醫霍爾格·沃爾克合作的工作顯示,熱圖在鼻子和嘴巴周圍最熱。
儘管存在一些問題,一些研究人員仍在進一步推進,努力開發能夠讀取比壓力和疼痛更複雜情感的系統——這些情感更接近人類經歷的喜悅、憤怒或悲傷。
布麗塔尼·弗洛克維奇是里昂學院的一位演化心理學家,她看過不少貓咪影片。她和她的團隊花了數百小時觀看洛杉磯一家貓咖啡館中貓咪玩耍和打鬥的錄像,仔細編碼動物面部表情的每個細節,尋找它們「開心」或不開心的行為跡象。
這項工作揭示了貓咪會做出276種不同的 facial expressions。現在,弗洛克維奇與馬特威爾和扎曼斯基合作,將人工智慧應用於她的數據。技術已經顯示這些咖啡館中的貓咪往往會微妙地模仿彼此的面部表情——通常是在邀請通過梳理毛髮或玩耍來建立聯繫。
在類似的研究中,扎曼斯基的團隊訓練他們的人工智慧系統來辨識拉布拉多尋回犬的照片,這些狗要么熱切地期待著獎勵,要么能看到獎勵但無法觸及而感到沮喪。人工智慧成功地判斷出狗是「開心」還是「沮喪」的比例為89%。它在區分「開心」和「沮喪」的馬匹上也取得了同樣的成功率。在同一個實驗中,有些馬被拍攝到發現期待中的獎勵實際上並不存在的情景。研究人員發現,他們的人工智慧能夠正確地將馬歸類為「沮喪」或「失望」的比例達到61%——這是一個相對較小的成功率,但仍然好於隨機猜測。
為了在此基礎上取得更多成功,馬特威爾和扎曼斯基正在構建不同情感狀態下的狗、貓、馬和靈長類動物面部數據庫。研究團隊在網際網路上搜尋那些主人提供了清晰情境描述的照片——從而推斷出動物的可能情緒。通過將這些照片輸入人工智慧系統,他們希望能夠解碼每個獨特情感情景下物種所呈現的不同面部表情。
扎曼斯基說她的「夢想」是有一個能夠揭示如開心、悲傷和壓力等基本情緒狀態的「狗臉閱讀器」——這對於人工智慧來說是一個特別的挑戰,因為不同品種的狗面部和耳朵形狀多樣。「現在還不可能,我知道,」她說,「但是在一年內就會成為可能。這是我們不斷告訴自己的話語——並且我們正在努力實現這個目標。」弗洛基維茨說,有一天機器甚至可以開始將某些面部表情與「意圖性」聯繫起來——判斷動物是否有某個目標,比如外出、抓玩具或挑起爭鬥。
一個挑戰是收集訓練數據。「他們用相當於劍橋大學圖書館一半藏書量的文獻來訓練ChatGPT——該圖書館收藏了英國出版的所有書籍的副本,」羅賓遜說,「但事實上網路上並沒有那麼多狗、貓和羊的照片——至少沒有那些能清楚顯示動物情緒的照片。」
哥本哈根大學的動物溝通專家艾洛迪·布里耶表示,面部表情並不能完全說明問題。農業工程師蘇雷什·尼提拉詹指出,為了探測動物的情緒,人工智慧必須超越面部,考慮尾巴擺動或弓背等其他因素。他自己的用於農場動物的福利檢查系統甚至分析體溫排放——這是雞和其他面部表情有限的物種的重要線索。
儘管存在這些限制,扎曼斯基說,面部人工智慧已經提供了「實踐和現實」的機會。她的團隊即將推出一款基於人工智慧的应用程序,允許貓主人掃描寵物臉部30秒,立即獲得易讀的信息,如「檢測到口周有顯著緊張;疼痛程度中等。」
荷蘭的研究人員開發了一款類似的應用程序,可以掃描休息中的馬的面部和身體以估計其疼痛水平。倫科尼奧建議,人工智慧最終可以在馬術比賽中使用,獎勵騎手們擁有開心且舒適的馬匹,從而改善運動中的福利和公平性。
更廣泛地說,弗洛基維茨表示,實驗室和寵物收容所可以利用人工智慧來監測動物的疼痛和情緒狀態。「智能農場」——例如在英格蘭鄉村試點的那些——承諾通過每日監控為動物提供個性化的護理。史密斯說,最終,人工智慧助手可以指導農民不僅給豬一個無壓力的生活,而且是一個快樂的生活。
對於扎曼斯基來說,這個前景讓她的所有工作都變得值得。「我的工作是成為改善動物生活的代理人,」她說,「當我们知道我們的動物同伴們開心時,這也讓我們感到開心。」