來源|Case Studies in Thermal Engineering
原文 |https://doi.org/10.1016/j.csite.2023.102925
01背景介紹
大型數(shù)據(jù)中心和其他大型計算基礎(chǔ)設(shè)施由數(shù)千個機架組成,支持?jǐn)?shù)萬臺服務(wù)器和其他電子設(shè)備。這些電子設(shè)備消耗大量的電力,產(chǎn)生大量的熱量。2019年,數(shù)據(jù)中心消耗了約3%的全球電力。由于對數(shù)據(jù)中心的需求巨大,預(yù)計這一數(shù)字將以每年12%的速度增長。
在一個典型的直流系統(tǒng)中,冷卻系統(tǒng)占總能量的40%。產(chǎn)生的熱量可能會導(dǎo)致服務(wù)器過熱,威脅到服務(wù)器的安全運行,如果不及時有效地散熱,可能會導(dǎo)致服務(wù)器故障。此外,CPU的溫度對功率有直接的影響。因此,適宜的CPU溫度可以提供顯著的節(jié)能效果。
風(fēng)冷是最常用的冷卻系統(tǒng)。風(fēng)冷需要使用強大的風(fēng)扇,并在電子設(shè)備之間提供空間,以放置笨重的散熱器,并允許足夠的氣流。用于計算的電子設(shè)備不僅性能越來越好,還具有更大的功率,即最大理論負載下的功耗。因此,迫切需要改進目前的冷卻解決方案。
02成果掠影
近年來,液冷作為傳統(tǒng)風(fēng)機強制風(fēng)冷的補充或替代方法被引入電子設(shè)備機架。液冷直流系統(tǒng)最近成為重要的和流行的散熱設(shè)備,并且液冷系統(tǒng)具有更好的傳輸特性,具有更優(yōu)異的經(jīng)濟性。近期,
法國的Mohamad Hnayno教授,Ali Chehade教授和Chadi Maalouf教授介紹了在OVHcloud實驗室
開發(fā)的一種新的單相浸入/液冷技術(shù)的實驗研究,將直接到芯片的水冷系統(tǒng)與被動的單浸入冷卻技術(shù)相結(jié)合。實驗裝置測試了三種介質(zhì)流體(S5X, SmartCoolant和ThermaSafe R)的影響,水回路配置的影響,以及服務(wù)器的功率/配置。結(jié)果表明,該系統(tǒng)冷卻需求取決于流體的粘度。當(dāng)黏度從4.6 mPa s增加到9.8 mPa s時,冷卻性能下降了約6%。此外,所有的IT服務(wù)器配置都在不同的進水溫度和流速下進行了驗證。在一個600千瓦的數(shù)據(jù)中心(DC)比較了本文的技術(shù)和OVHcloud之前使用的液冷系統(tǒng)的能源性能。與液冷系統(tǒng)相比,所提出的技術(shù)減少了至少20.7%的直流電力消耗。最后,在服務(wù)器層面對空氣和液冷系統(tǒng)的冷卻性能和所提出的解決方案進行了計算比較。使用該解決方案時,與風(fēng)冷系統(tǒng)相比節(jié)能至少20%,與液冷系統(tǒng)相比節(jié)能至少7%。
研究成果以“Experimental investigation of a data-centre cooling system using a new single-phase immersion/liquid technique”為題發(fā)表于《Case Studies in Thermal Engineering》。
03圖文導(dǎo)讀
圖1.IC系統(tǒng)示意圖。
圖2.單相浸沒/液冷技術(shù)架構(gòu)。
圖3.(a) IC IT機架(48臺服務(wù)器),(b) 600kw IC集裝箱。
圖4.(a) IC實驗室實驗裝置方案,(b) IC實驗裝置照片。
圖5.在使用S5 X、SmartCoolant和ThermaSafe R流體時,(a) IC流體溫度和(b) IT 溫度在不同tc和流速下的變化。
表1.比較在OVHcloud實驗DC中使用的風(fēng)冷、液冷和浸泡/液冷服務(wù)器(服務(wù)器#4)。
表2.AMD Socket SP3處理器的尺寸和導(dǎo)熱系數(shù)。
審核編輯:湯梓紅
-
服務(wù)器
+關(guān)注
關(guān)注
12文章
9234瀏覽量
85641 -
數(shù)據(jù)中心
+關(guān)注
關(guān)注
16文章
4810瀏覽量
72212 -
液冷
+關(guān)注
關(guān)注
4文章
103瀏覽量
5104
發(fā)布評論請先 登錄
相關(guān)推薦
評論