|
|
近日,全球領(lǐng)先的技術(shù)研究和咨詢公司 Technavio 發(fā)布了綠色數(shù)據(jù)中心市場趨勢的最新預(yù)測報告。報告預(yù)計,2022 至 2027 年間,綠色數(shù)據(jù)中心市場規(guī)模將增加 1469.5億美元,復(fù)合年增長率高達(dá) 24.63%。 圖片圖:Technavio 發(fā)布了題為《2023-2027 年全球綠色數(shù)據(jù)中心市場》的最新市場研究報告 Technavio 指出,“電力消耗和成本的增加是推動市場增長的關(guān)鍵因素。 數(shù)據(jù)中心的能耗非常高,并且隨著對自動駕駛汽車、流媒體和 5G 等更強(qiáng)大應(yīng)用需求的增加,數(shù)據(jù)中心的能耗可能呈指數(shù)級增長,它們需要大量電力來為不同的設(shè)備供電!
數(shù)據(jù)中心能源需求居高不下 根據(jù)國際能源機(jī)構(gòu)(IEA)和環(huán)保組織等不同來源的數(shù)據(jù),全球數(shù)據(jù)中心的能耗在過去十年中大幅增加。2015 至 2021 年數(shù)據(jù)中心的年耗電量約為 200 太瓦時 (TWh),2022 年全球數(shù)據(jù)中心用電量為 240-340 TWh。自 2010 年以來,數(shù)據(jù)中心用電量約占全球用電量的 1-1.5%[2]。 圖片圖:2015年至2021年全球數(shù)據(jù)中心能源需求[3](數(shù)據(jù)來源:Statista)
AI服務(wù)器能源需求急劇增長 隨著生成式人工智能的快速發(fā)展,例如備受歡迎的 ChatGPT ,導(dǎo)致對數(shù)據(jù)中心計算能力的需求劇增。人工智能應(yīng)用程序讀取大量數(shù)據(jù),比傳統(tǒng)軟件消耗更多的電力。用于訓(xùn)練生成式 AI 模型的 GPU 功耗很大,也需要額外的冷卻能源。 根據(jù) De Vries 的說法,NVIDIA 在 2023 年交付的 100,000 臺服務(wù)器將消耗 5.7 至 8.9 TWh 的電力,到 2027 年,這些服務(wù)器每年可能需要高達(dá) 134 TWh 的電力[4]。 行業(yè)專家預(yù)計,就宏觀數(shù)據(jù)而言,到 2030 年,人工智能可能占全球電力需求的 3% 至 4%[5]。由于人工智能服務(wù)器的激增,數(shù)據(jù)中心的電力消耗已經(jīng)在大幅增加,麥肯錫預(yù)測,到 2030 年,數(shù)據(jù)中心的用電量將增加一倍以上。 圖片圖:NVIDIA H100 人工智能 GPU 服務(wù)器集群
要應(yīng)對數(shù)據(jù)中心的巨大能源需求挑戰(zhàn),需要采取多方面的措施,包括節(jié)能硬件、創(chuàng)新冷卻解決方案、綠色能源以及更廣泛的可持續(xù)發(fā)展策略。
采用更節(jié)能的芯片 采用節(jié)能芯片是提高數(shù)據(jù)中心能源效率的基石。節(jié)能芯片具有先進(jìn)的架構(gòu)和電源管理功能,在最大限度降低數(shù)據(jù)中心硬件功耗方面發(fā)揮著關(guān)鍵作用。這些芯片能夠更有效地分配和利用硬件資源,從而提高每瓦特的性能。 例如,與前幾代英特爾 Xeon 處理器相比,第四代 Xeon 在使用內(nèi)置加速器時,目標(biāo)工作負(fù)載的平均每瓦性能效率提高了 2.9 倍。2022 年,Nvidia 發(fā)布的 H100 GPU AI 芯片的能源效率幾乎是上代產(chǎn)品 A100 的兩倍。
采用更高效率的冷卻技術(shù) 降低數(shù)據(jù)中心能源消耗的另一個有效舉措是大范圍采用更高效率的冷卻方案,減少冷卻能耗占比,其中的一個關(guān)鍵指標(biāo)就是“電力使用效率”(PUE)。過去十年,盡管計算輸出增加了 6 倍,存儲容量增加了 25 倍,但 2006 年至 2018 年間,全球數(shù)據(jù)中心的能源使用量僅增加了 6%。這種顯著的效率提升歸功于 PUE 的降低。
圖片圖:Uptime Institute 對2007-2022年全球數(shù)據(jù)中心 PUE 的調(diào)查跟蹤數(shù)據(jù)
Uptime Institute 的調(diào)查表明,2007 年至 2014 年,得益于老式數(shù)據(jù)中心廣泛應(yīng)用冷熱空氣隔離、優(yōu)化冷卻控制和提高送風(fēng)溫度等措施,PUE 得以迅速下降。2014 年后,由于空氣冷卻仍然占據(jù)數(shù)據(jù)中心冷卻主導(dǎo)地位,PUE 的改善速度明顯放緩。2020 年后,隨著越來越多的液體冷卻 (尤其是直接液體冷卻DLC)的大規(guī)模部署,進(jìn)入液冷時代的數(shù)據(jù)中心 PUE 將低于 1.3 。 以下幾種主要的液體冷卻技術(shù)不僅能提高數(shù)據(jù)中心的整體冷卻效率,還能滿足高功率密度芯片的冷卻需求,并減少對耗電量大的空調(diào)系統(tǒng)的依賴,促進(jìn)環(huán)境的可持續(xù)發(fā)展。
直接液體冷卻(DLC) 直接液體冷卻(DLC)是一種管理高性能計算組件所熱量的變革性方法。在 DLC 系統(tǒng)中,液體冷卻劑(通常是水或?qū)S靡后w)被輸送至直接與 CPU 和 GPU 等發(fā)熱元件接觸的冷板,熱量傳遞至冷卻劑。隨后,被加熱的液體從元件循環(huán)到熱交換器,在那里熱能會被耗散。與傳統(tǒng)的空氣冷卻相比,這種方法提供了一種更有效的熱管理手段,使數(shù)據(jù)中心能夠適應(yīng)更高的功率密度。 圖片圖:部分提供 DLC 液冷技術(shù)的公司
浸沒式液體冷卻 浸沒式液體冷卻代表著散熱策略的突破性轉(zhuǎn)變。在浸沒式冷卻中,服務(wù)器CPU/GPU和其他電子元件完全浸沒在介電液體中,介電液體與所有發(fā)熱元件直接接觸,確保了均勻高效的熱交換。然后,被加熱的液體循環(huán)到外部熱交換器,熱能在那里被散發(fā)。 圖片圖:部分提供浸沒式液冷技術(shù)的公司
噴霧液體冷卻 噴霧液體冷卻是管理高性能計算環(huán)境熱負(fù)荷的一種先進(jìn)技術(shù)。在噴霧系統(tǒng)中,介電液體冷卻劑被精確控制成霧狀,并噴射到處理器和顯卡等服務(wù)器的發(fā)熱部件上。霧狀液體接觸熱表面后,能迅速、有針對性地吸收熱量。隨后,產(chǎn)生的蒸汽攜帶著熱能被有效地帶走。這種方法可以在最需要的地方進(jìn)行局部熱點增強(qiáng)冷卻,優(yōu)化整體效率。 目前,盡管數(shù)據(jù)中心噴霧液體冷卻市場增長較為緩慢,但是廣東合一新材料研究院有限公司以及阿爾西(AIRSYS)等企業(yè)正在積極推動其成為被廣泛接受的解決方案。
參考: https://www.technavio.com/report/green-data-center-market-industry-analysis https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks#tracking https://www.statista.com/statistics/186992/global-derived-electricity-consumption-in-data-centers-and-telecoms/ https://think.ing.com/articles/data-centres-continue-to-improve-energy-efficiency https://www.spglobal.com/commodityinsights/en/market-insights/latest-news/electric-power/101623-power-of-ai-wild-predictions-of-power-demand-from-ai-put-industry-on-edge
推薦閱讀: 1、英特爾停止了CPU熱電冷卻技術(shù)的開發(fā) ?
|
|