淘新聞

PUE逼近1.0 全浸沒液冷伺服器集群現身阿裡巴巴

4月5日,阿裡巴巴技術在官方微博發佈了一組照片,以此回應在4月1日愚人節提及的“麒麟”計畫。據證實,該麒麟計畫實為業界首批浸沒液冷伺服器集群,通過液冷而不是常見風冷的方式為伺服器集群降溫,最終其PUE值可接近1.0,達到了世界領先水準。

阿裡技術的微博這樣寫道,“這是阿裡巴巴又一黑科技產品,將創造多個業界記錄,支撐阿裡巴巴‘NASA’行動計畫”。照片顯示,放置在樓頂的集裝箱裡擺滿了印有阿裡LOGO的黑色金屬箱,以及在透明玻璃下箱體內部的線纜、銅管和高密伺服器節點。

(阿裡巴巴技術官方微博截圖)

(阿裡巴巴浸沒液冷伺服器集裝箱)

(阿裡巴巴浸沒液冷伺服器集群)

經官方正式確認,4月1日愚人節提及的“麒麟”計畫是技術研發成功後的一個小插曲。該專案負責人阿裡巴巴伺服器產品高級專家熾平表示,這些照片背後是浸沒液冷伺服器集群,PUE(能源使用效率)逼近1.0。

阿裡巴巴重構液冷伺服器 透過阿裡雲推廣為普惠技術

浸沒液冷是最近幾年備受業界關注的新型散熱技術,尤其在SC14全球超級計算大會上,來自國內外的多家伺服器企業均展示了在浸沒液冷散熱上的產品,大幅提高了業界對液冷的關注度。

但遺憾的是,受限於技術實現的難度,目前參與浸沒液冷伺服器設計的企業,對浸沒液冷的應用也僅局限於單機測試、單機展示階段,從目前公開的資訊看,並無伺服器集群部署先例。

(阿裡巴巴浸沒液冷伺服器集群內部結構)

浸沒液冷伺服器集群部署一直未實現的主要原因,在於浸沒液冷解決方案相比風冷是一種全新的變革,需要具備從伺服器到資料中心整套解決方案的架構創新和重構設計的能力。

“阿裡巴巴進行了浸沒液冷的新材料技術研究,液冷伺服器架構設計以及液冷資料中心整體方案重構”。熾平表示,目前阿裡巴巴已經在整機櫃伺服器技術規範上形成了原創設計思想積累,在結合自身需求以及在自研資料中心的積累後,快速設計出符合自己需求的浸沒液冷伺服器整套解決方案,並進行集群化實踐。

據悉,阿裡巴巴對於液冷方案貫徹了系統化設計思路,除了硬體外,同期還設計了一套適合浸沒液冷的監控管理系統。

除了應用於自身業務場景外,浸沒液冷的成套先進技術也將率先應用于阿裡雲資料中心,通過阿裡雲對外服務來實現技術的普惠應用。據瞭解,浸沒液冷伺服器將在高主頻計算領域發揮重要價值,也將因此大大節約能源,實現綠色計算。

PUE無限逼近1.0 可達理論極限值

對於行業內最關心的液冷伺服器PUE數值,阿裡巴巴給出了一個瘋狂的數字——逼近1.0。

PUE值是指資料中心消耗的所有能源與IT設備負載消耗的能源之比。PUE值越接近1.0,表示資料中心的能效越好,綠色化程度越高,也就是越節約能源。

阿裡巴巴浸沒液冷伺服器採用了3M氟化液液體,全環境無風扇無振動設計,達到卓越散熱冷卻效果。同時由於沒有空氣,水汽,灰塵,風扇振動等環境影響,元器件可靠性也大幅提升。

近年來阿裡巴巴一直致力於綠色資料中心的技術創新,實現對能源的節約。2015年投入運營的華東某資料中心採用深層湖水製冷,年均PUE低於1.3。近日由阿裡雲對外開放服務的華北3資料中心則充分利用環境優勢,大面積採用新風自然冷和水側自然冷技術,年均PUE低於1.25。此次的浸沒液冷,更是將PUE推向理論極限值1.0。

技術的進步,一直在不斷激發行業對未來綠色資料中心建設的想像力。