SURL News

水療級冷卻:液冷技術實現資料中心節能80%

The showers and baths keeping data centre tech cool

作者: Chris Baraniuk | 時間: Tue, 23 Dec 2025 00:04:45 GMT | 來源: BBC

它們全天候以高速運作,溫度高得發燙——但資料中心的電腦晶片卻受到大量呵護。有些基本上就像住在水療中心一樣。

「我們會有液體從上方湧出,然後如淋浴般或細流般灑在元件上,」液冷公司Iceotope的執行長Jonathan Ballon說。「有些東西會被噴灑。」

在其他情況下,這些勤勞的裝置躺在循環流體浴中,這些流體將它們產生的熱量帶走,使其能以非常高的速度運作,稱為「超頻」。

「我們有客戶始終進行超頻,因為伺服器完全沒有燒燬的風險,」Ballon先生說。他補充說,一家美國連鎖飯店客戶正計劃利用飯店伺服器產生的熱量來暖化客房、飯店洗衣房和游泳池。

沒有冷卻,資料中心就會當機。

去年十一月,美國一處資料中心的冷卻系統故障,導致全球最大交易所營運商CME Group的金融交易技術離線。該公司隨後增設了額外的冷卻容量,以防止類似事件再次發生。

目前,資料中心的需求正蓬勃發展,部分原因是由於人工智慧技術的成長。但這些設施消耗的大量能源和水,意味著它們越來越具爭議性。

美國超過200個環保團體最近要求對該國新資料中心建設實施暫停令。但也有部分資料中心公司表示,它們希望降低影響。

它們還有另一個動機。資料中心的電腦晶片正變得越來越強大。強大到許多業內人士表示,傳統冷卻方法——例如空氣冷卻,即風扇持續對最熱的元件吹風——對某些運作而言已不再足夠。

Ballon先生意識到關於耗能資料中心建設的爭議正在升溫。「社區正在反對這些項目,」他說。「我們需要的電力和水顯著減少。我們完全沒有風扇——我們安靜運作。」

Iceotope表示,其液冷方法不僅能舒緩處理晶片,還能舒緩資料中心內的多個元件,可能將與冷卻相關的能源需求減少高達80%。

該公司的技術使用水來冷卻實際與電腦技術互動的油基流體。但水保持在封閉循環中,因此無需持續從當地供應中抽取更多水。

我問該公司冷卻系統中的油基流體是否來自化石燃料產品,他說有些是,但他強調沒有一種含有PFAS(也稱為永久化學品),這些物質對人體健康有害。

一些基於液體的資料中心冷卻技術使用含PFAS的冷媒。不僅如此,許多冷媒還會產生極其強效的溫室氣體,可能加劇氣候變遷。

市場研究公司IDTechEx的前高級技術分析師Yulin Wang說,兩相冷卻系統使用此類冷媒。冷媒起初是液體,但伺服器元件產生的熱量會使其蒸發成氣體,這種相變吸收大量能量,意味著它是一種有效的冷卻方式。

在某些設計中,資料中心技術完全浸沒在大量含PFAS的冷媒中。「蒸氣可能從槽中逸出,」Wang先生補充道。「可能存在一些安全問題。」在其他情況下,冷媒僅直接輸送到最熱的元件——電腦晶片。

提供兩相冷卻的一些公司目前正轉向使用不含PFAS的冷媒。

多年來,企業試驗了各種截然不同的冷卻方法,競相尋找最佳方式來讓資料中心設備保持良好運作。

例如,微軟著名地將一個裝滿伺服器的管狀容器沉入奧克尼群島附近的海中。想法是,蘇格蘭的冷水將提高設備內空氣冷卻系統的效率。

去年,微軟確認已關閉該項目。但該公司從中學到了很多,微軟Azure業務集團全球基礎設施總經理Alistair Speirs說。「沒有[人工]操作員,出錯的情況更少——這為我們的一些操作程序提供了參考,」他說。更少人為干預的資料中心似乎更可靠。

初步發現顯示,水下資料中心的電源使用效率(PUE)評分為1.07——這表明它比絕大多數陸上資料中心更有效率。而且它不需要任何水。

但最終,微軟得出結論,建設和維護水下資料中心的經濟效益並不樂觀。

該公司仍在研究基於液體的冷卻想法,包括微流體學,即液體通過矽晶片的多層微小通道流動。「你可以將其視為在奈米尺度上穿過矽的液體冷卻迷宮,」Speirs先生說。

研究人員也提出了其他想法。

七月,加州大學聖地亞哥分校的Renkun Chen及其同事發表了一篇論文,詳細介紹了他們基於多孔薄膜的冷卻技術構想,該技術可被動冷卻晶片——無需主動泵送流體或吹氣。

「本質上,你是利用熱量來提供泵送動力,」Chen教授說。他將其比擬為水從樹葉蒸發的過程,這會產生泵送效應,將更多水通過樹幹和樹枝向上輸送以補充葉片。Chen教授表示,他希望將該技術商業化。

機器學習學院Hugging Face的人工智慧與氣候主管Sasha Luccioni表示,資料中心技術的新冷卻方式越來越受到追捧。

部分原因在於對人工智慧的需求——包括生成式人工智慧或大型語言模型(LLMs),這些是驅動聊天機器人的系統。在先前的研究中,Luccioni博士已證明這些技術會消耗大量能源。

「如果你有耗能很高的模型,那麼冷卻就必須提升一級,」她說。

她補充道,推理模型(它們以多個步驟解釋輸出)需求更高。

它們使用的能源「比僅回答問題的標準聊天機器人高出數百或數千倍」。Luccioni博士呼籲人工智慧公司對其各種產品的能耗提供更大透明度。

對Ballon先生來說,LLMs只是一種人工智慧形式——他認為它們在生產力方面已「達到極限」。

原文與圖片連結

> 回首頁看更多新聞 <

你可能也有興趣: