|
|
近日,微軟Azure展示了全球首個采用Nvidia Blackwell處理器的定制服務(wù)器機架,引發(fā)了廣泛關(guān)注。這標(biāo)志著微軟成為首個運行Nvidia Blackwell系統(tǒng)的云服務(wù)提供商,且其服務(wù)器已正式投入運行。這些服務(wù)器配備了強大的GB200 AI處理器,專為訓(xùn)練擁有大量參數(shù)的大型語言模型(LLM)而設(shè)計。
▌Blackwell處理器的突破 Nvidia的Blackwell處理器正成為數(shù)據(jù)中心中的熱門硬件。它在FP8/INT8性能上比之前的H100處理器高出2.5倍(4,500 TFLOPS對1,980 TOPS),在FP4數(shù)據(jù)格式下,Blackwell的性能更是高達9 PFLOPS。這一飛躍為訓(xùn)練更復(fù)雜、功能更強大的AI模型提供了新的可能,推動AI技術(shù)進入新的應(yīng)用領(lǐng)域。 微軟Azure在X平臺上發(fā)布消息稱:“我們通過優(yōu)化每個層次,利用Infiniband網(wǎng)絡(luò)和閉環(huán)液冷技術(shù),支持世界上最先進的AI模型。”這一聲明展示了Azure的技術(shù)優(yōu)勢,尤其是在散熱和高效能的計算環(huán)境管理上。服務(wù)器采用復(fù)雜的液冷系統(tǒng),以應(yīng)對高功率運算的需求,特別是在大規(guī)模部署B(yǎng)lackwell處理器時。 ▌液冷技術(shù)的應(yīng)用 隨著AI計算負載的增加,功耗和散熱成為挑戰(zhàn)。據(jù)悉,Nvidia的NVL72 GB200服務(wù)器配備72個B200處理器時,功耗將達到120千瓦,使得液冷方案成為必需。微軟Azure此次的測試,不僅為其未來的Blackwell部署鋪平了道路,也為大規(guī)模應(yīng)用高功耗GPU提供了散熱和功效管理的可靠解決方案。 微軟計劃在今年11月18日至22日于芝加哥舉行的MS Ignite大會上,公布更多關(guān)于Blackwell服務(wù)器和AI項目的細節(jié)。未來幾個月,微軟將進一步擴展基于Blackwell的服務(wù)器,預(yù)計在2025年初迎來大規(guī)模商用部署。
▌與Nvidia的深度合作 微軟與Nvidia的長期合作正不斷推動AI計算的發(fā)展。微軟CEO Satya Nadella表示,公司將繼續(xù)通過與Nvidia的深度創(chuàng)新,引領(lǐng)行業(yè)發(fā)展,滿足最復(fù)雜的AI工作負載需求。這一合作不僅將為微軟Azure平臺帶來更多商業(yè)機會,也有望推動AI技術(shù)在更廣泛領(lǐng)域的應(yīng)用。 隨著Blackwell服務(wù)器的廣泛部署,微軟的AI能力將迎來新的突破,進一步鞏固其在全球云計算和AI服務(wù)市場中的領(lǐng)先地位。
因在訓(xùn)練大語言模型方面的卓越性能,英偉達的Blackwell處理器成為了數(shù)據(jù)中心硬件中的熱門選擇。此前有傳言微軟可能是首家獲得Blackwell服務(wù)器的公司,但這一消息并未得到官方確認。微軟最近宣布,他們已經(jīng)獲得了英偉達的Blackwell硬件,而且這些設(shè)備已經(jīng)開始運行。
微軟Azure宣稱自己是首個運行搭載GB200的英偉達Blackwell系統(tǒng)的云服務(wù)提供商,微軟Azure正在優(yōu)化其服務(wù)的每一個層面,以支持世界上最先進的AI模型,包括利用Infiniband網(wǎng)絡(luò)和創(chuàng)新的閉環(huán)液體冷卻技術(shù),更多細節(jié)將在Ignite大會上公布。微軟Ignite大會是微軟公司每年舉辦的全球性技術(shù)盛會,今年的大會重點是“AI轉(zhuǎn)型中的最新創(chuàng)新”。 據(jù)悉,微軟Azure至少部署了一個基于GB200的服務(wù)器機架,配備了大概32個B200處理器。這臺服務(wù)器采用了精密的液體冷卻系統(tǒng),并非英偉達的GB200 NVL72,據(jù)稱微軟更傾向于這種密度更高的版本。這個機架預(yù)計將用于測試英偉達Blackwell GPU和液體冷卻系統(tǒng),而在未來幾個月內(nèi),微軟將開始部署基于Blackwell的服務(wù)器以處理商業(yè)工作負載。
一臺配備72個B200 GPU的GB200 NVL72機器預(yù)計將消耗和散發(fā)大約120千瓦的電力,因此液體冷卻對于這類機器來說是必需的。英偉達的B200 GPU在FP8/INT8性能上比H100處理器高出2.5倍,達到了4500 TFLOPS/TOPS,而H100為1980 TOPS。在FP4數(shù)據(jù)格式下,B200的性能更是達到了驚人的9 PFLOPS,這為訓(xùn)練極其復(fù)雜的大語言模型提供了可能。 微軟首席執(zhí)行官薩提亞·納德拉在社交網(wǎng)站上的一篇帖子中表示,微軟與英偉達的長期合作關(guān)系和深度創(chuàng)新將繼續(xù)引領(lǐng)行業(yè)發(fā)展,為最復(fù)雜的AI工作負載提供支持。微軟將在2024年11月18日至22日在芝加哥舉行的年度Ignite大會上分享更多關(guān)于其基于Blackwell的機器和AI項目的細節(jié),預(yù)計Blackwell服務(wù)器的大規(guī)模部署將在2024年底或2025年初開始加速。
New Microsoft Azure NVIDIA GB200 Systems Shown Microsoft Azure NVIDIA GB200 With In Rack CDU New Microsoft Azure NVIDIA GB200 Systems Shown
Microsoft Azure is the 1st cloud running @nvidia‘s Blackwell system with GB200-powered AI servers. We’re optimizing at every layer to power the world’s most advanced AI models, leveraging Infiniband networking and innovative closed loop liquid cooling. Learn more at MS Ignite. pic.twitter.com/K1dKbwS2Ew — Microsoft Azure (@Azure) October 8, 2024 Taking a quick look at the rack, something is immediately obvious, the cooler dwarfs the compute rack, even though the compute rack only shows 8 GB200 trays installed. Microsoft Azure NVIDIA GB200 With In Rack CDU Final Words For years, folks on the desktop side have used larger and larger air coolers, and liquid coolers. This is fun for computer enthusiasts because it is a case where the liquid cooler is roughly twice the size of the compute and networking rack itself. Of course, this is necessary as the NVIDIA GB200 NVL designs are very dense. Patrick’s Editor’s Note: Usually, heat exchangers that are two racks wide are for multiple racks. Microsoft did not picture it, but I sense that the cooling might actually be for multiple racks, including those not shown, since that would be a huge one for a single GB200 rack with eight compute trays installed. For reference, we covered CoolIT in-row liquid-to-air CDUs that were two racks wide, but they can do 180-240kW in a similar footprint. CoolIT said its 240kW in-row CDU can handle up to four GB200 NVL72 racks. Note that is not the CDU it looks like Microsoft is showing but it gives you some sense of how much cooling is normal in that footprint. Microsoft only showed one rack that looks like it is in progress with the heat exchanger, but it is likely part of a larger installation. Who knows. But what they shared was just the two side-by-sde.
關(guān)于我們 北京漢深流體技術(shù)有限公司是丹佛斯中國數(shù)據(jù)中心簽約代理商。產(chǎn)品包括FD83全流量自鎖球閥接頭,UQD系列液冷快速接頭、EHW194 EPDM液冷軟管、電磁閥、壓力和溫度傳感器及Manifold的生產(chǎn)和集成服務(wù)。在國家數(shù)字經(jīng)濟、東數(shù)西算、雙碳、新基建戰(zhàn)略的交匯點,公司聚焦組建高素質(zhì)、經(jīng)驗豐富的液冷工程師團隊,為客戶提供卓越的工程設(shè)計和強大的客戶服務(wù)。 公司產(chǎn)品涵蓋:丹佛斯液冷流體連接器、EPDM軟管、電磁閥、壓力和溫度傳感器及Manifold。
|
|