SURL News

晶片水療新境:液冷科技締造資料中心綠能典範

The showers and baths keeping data centre tech cool

作者: Chris Baraniuk | 時間: Tue, 23 Dec 2025 00:04:45 GMT | 來源: BBC

它們24/7高速運轉,並變得灼熱——但數據中心的計算機芯片卻得到充分的呵護。有些芯片基本上就像是生活在水療中心。

「我們會讓液體向上流動,然後淋灑或滴落於組件之上,」液冷公司Iceotope的首席執行官Jonathan Ballon說道。「有些東西會被噴灑。」

在其他情況下,這些勤勉的裝置會浸在循環流體浴中,流體帶走它們產生的熱量,使它們能夠以非常高的速度運行,這被稱為「超頻」。

「我們有客戶一直在進行超頻,因為服務器燒毀的風險為零,」Ballon先生說道。他補充說,其中一位客戶是美國一家酒店連鎖集團,計劃利用酒店服務器產生的熱量來為客房、洗衣房和游泳池供暖。

沒有冷卻,數據中心就會崩潰。

今年11月,美國一家數據中心的冷卻系統故障導致全球最大的交易所運營商CME集團的金融交易技術停機。該公司隨後增加了額外的冷卻能力,以防止此類事件再次發生。

目前,數據中心的需求正蓬勃發展,部分原因是由於人工智能技術的增長。但這些設施消耗的巨量能源和水資源意味著它們日益引發爭議。

美國超過200個環境組織最近要求對新數據中心建設實行暫緩令。但有些數據中心公司表示,他們希望減少對環境的影響。

他們還有另一個動機。數據中心計算機芯片變得越來越強大。以至於行業內許多人表示,傳統冷卻方法——例如風冷,即風扇不斷吹拂最熱的組件——對某些操作已不再足夠。

Ballon先生意識到關於建設能源消耗型數據中心的爭議日益加劇。「社區正在反對這些項目,」他說道。「我們需要的電力和水資源明顯減少。我們根本沒有風扇——我們運行時完全安靜。」

Iceotope表示,其液冷方法不僅能為處理芯片,還能為數據中心的多個組件降溫,可能將冷卻相關的能源需求減少高達80%。

該公司的技術使用水來冷卻與計算機技術實際接觸的油基流體。但水保持在封閉循環中,因此無需持續從當地水源抽取更多水。

我詢問公司冷卻系統中的油基流體是否來自化石燃料產品,他表示有些是,但他強調這些流體均不含有PFAS(即永久化學品),這種物質對人體健康有害。

一些基於液體的數據中心冷卻技術使用含PFAS的冷媒。不僅如此,許多冷媒會產生極強效應的溫室氣體,這可能加劇氣候變化。

市場研究公司IDTechEx的前高級技術分析師王玉林表示,兩相冷卻系統使用此類冷媒。冷媒起初為液體,但服務器組件的熱量使其蒸發為氣體,這種相變吸收大量能量,使其成為有效的冷卻方式。

在某些設計中,數據中心技術完全浸沒在大量含PFAS的冷媒中。「蒸氣可能會從儲罐中逸出,」王先生補充道。「可能存在一些安全問題。」在其他情況下,冷媒僅直接輸送到最熱的組件——計算機芯片。

一些提供兩相冷卻的公司目前正轉向使用不含PFAS的冷媒。

多年來,各公司一直在實驗各種截然不同的冷卻方法,以尋找讓數據中心設備保持良好運行的最佳方式。

微軟曾將一個裝滿服務器的管狀容器沉入奧克尼群島附近的海域。其想法是利用冰冷的蘇格蘭海水來提高設備內部基於空氣的冷卻系統效率。

去年,微軟確認已終止該項目。但該公司從中學到了很多,微軟Azure業務集團全球基礎設施總經理Alistair Speirs表示。「沒有[人類]操作員,出問題的情況減少——這影響了我們的一些運營程序,」他說道。更少人為干預的數據中心似乎更可靠。

初步研究顯示,該海底數據中心的電源使用效率(PUE)評級為1.07——表明它比絕大多數陸地數據中心更高效。而且它不需要消耗任何水。

但最終,微軟得出結論,建造和維護海底數據中心的經濟效益並不利好。

該公司仍在研究基於液體的冷卻理念,包括微流體技術,即微小的液體通道流經硅芯片的多層結構。「你可以想象在納米尺度上,液體冷卻迷宮穿過硅芯片,」Speirs先生說道。

研究人員也提出了其他想法。

今年7月,加州大學聖地亞哥分校的陳仁坤及其同事發表了一篇論文,詳細介紹了他們關於帶孔膜基冷卻技術的構想,該技術可被動冷卻芯片——無需主動泵送流體或吹風。

「本質上,你是在利用熱量來提供泵送動力,」陳教授說道。他將其比作水從樹葉蒸發的過程,這種蒸發誘導出泵送效應,將更多水分沿樹幹和樹枝向上輸送以補充葉片。陳教授表示,他希望將該技術商業化。

Hugging Face機器學習公司的AI與氣候部門負責人Sasha Luccioni表示,越來越多人急需找到冷卻數據中心技術的新方法。

這部分原因是由於對AI的需求——包括生成式AI或大型語言模型(LLMs),這些是聊天機器人的核心系統。在先前的研究中,Luccioni博士表明,此類技術消耗大量能源。

「如果你的模型能耗很高,那麼冷卻需求就必須提升一個層次,」她說道。她補充道,推理模型(能分步解釋輸出的模型)要求更高。它們的「能耗比僅回答問題的標準聊天機器人高出數百至數千倍」。Luccioni博士呼籲AI公司在其各類產品的能耗方面提供更大的透明度。

對Ballon先生而言,LLMs只是AI的一種形式——他認為它們在生產力方面已經「達到極限」。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: