|
|
本文是進步研究所 (IFP) 新系列的第一篇,名為《美國計算:在家中構建下一代 AI 基礎設施》 。在本系列中,我們將探討加速美國 AI 數(shù)據(jù)中心建設所面臨的挑戰(zhàn)。
我們通常認為軟件是完全數(shù)字化的存在,是一個完全獨立于“原子”世界的“位”世界。我們可以在手機上下載無限量的數(shù)據(jù),而手機卻不會因此而變重;我們可以觀看數(shù)百部電影而不用接觸物理磁盤;我們可以收集數(shù)百本書而不需要擁有一張紙。
但數(shù)字基礎設施最終需要物理基礎設施。所有這些軟件都需要某種計算機來運行。所需的計算越多,所需的物理基礎設施就越多。幾周前,我們在研究制造現(xiàn)代半導體所需的200 億美元龐大設施時就看到了這一點。我們也在最先進的人工智能軟件中看到了這一點。
創(chuàng)建一個尖端的大型語言模型需要大量的計算,既要訓練模型,也要在模型完成后運行它們。訓練OpenAI 的 GPT-4需要估計210 億 petaFLOP (1 petaFLOP 是 10^15 次浮點運算)。[1]相比之下,iPhone 12 每秒能夠進行大約 11 萬億次浮點運算(每秒 0.01 petaFLOP),這意味著如果你能夠以某種方式在 iPhone 12 上訓練 GPT-4,則需要 60,000 多年才能完成。在1997 年的100 Mhz 奔騰處理器上,每秒只能進行 920 萬次浮點運算,理論上訓練需要超過 660 億年。而且 GPT-4 并不是一個例外,而是 AI 模型變得越來越大并且需要更多計算來創(chuàng)建的長期趨勢的一部分。
來自Epoch AI
但 GPT-4 當然不是在 iPhone 上訓練的。它是在數(shù)據(jù)中心訓練的,在專門設計的建筑物中,有數(shù)萬臺計算機及其所需的支持基礎設施。
隨著各家公司競相創(chuàng)建自己的 AI 模型,它們正在構建巨大的計算能力來訓練和運行這些模型。為了滿足 AI 需求的增長,亞馬遜計劃未來 15 年在數(shù)據(jù)中心上投資 1500 億美元。僅在 2024 年,Meta 就計劃在基礎設施和數(shù)據(jù)中心上投資 370 億美元,其中大部分與 AI 相關。為 AI 公司提供云計算和計算服務的初創(chuàng)公司 Coreweave 已籌集數(shù)十億美元資金來建設其基礎設施,并將在 2024 年建設 28 個數(shù)據(jù)中心。所謂的“超大規(guī)模企業(yè)”,即擁有大量計算需求的科技公司,如 Meta、亞馬遜和谷歌,估計它們計劃或正在開發(fā)的數(shù)據(jù)中心足以將其現(xiàn)有容量翻一番。在全國各地的城市,數(shù)據(jù)中心建設正在飆升。
圖片 圖片
但即使對容量的需求猛增,建設更多數(shù)據(jù)中心也可能變得越來越困難。特別是,運營數(shù)據(jù)中心需要大量電力,而可用電力正迅速成為數(shù)據(jù)中心建設的制約因素。美國十大公用事業(yè)公司中有九家將數(shù)據(jù)中心列為客戶增長的主要來源,而對數(shù)據(jù)中心專業(yè)人士的調(diào)查將電力可用性和價格列為推動數(shù)據(jù)中心選址的兩大因素。隨著即將建設的數(shù)據(jù)中心數(shù)量創(chuàng)下歷史新高,問題只會變得更加嚴重。
輸?shù)羧斯ぶ悄茴I先競爭的后續(xù)影響值得考慮。如果過去幾年的快速發(fā)展持續(xù)下去,先進的人工智能系統(tǒng)將大大加速科技進步和經(jīng)濟增長。強大的人工智能系統(tǒng)對國家安全也非常重要,可以實現(xiàn)新型的進攻和防御技術。失去人工智能發(fā)展的最前沿將嚴重削弱國家安全能力,以及我們塑造未來的能力。而另一項主要在美國發(fā)明和開發(fā)的變革性技術將輸給外國競爭對手。
人工智能依賴于穩(wěn)定電力的可用性。美國在創(chuàng)新清潔穩(wěn)定電力新來源方面的領導地位可以而且應該得到利用,以確保未來的人工智能數(shù)據(jù)中心建設在這里進行。(這里是以美國人的視角) 1. 數(shù)據(jù)中心簡介 圖片 大型數(shù)據(jù)中心的典型布局,來自“The Datacenter as a Computer.” 數(shù)據(jù)中心是一種非常簡單的結構:一個容納計算機或其他 IT 設備的空間。它可以是一個裝有服務器的小柜子,也可以是辦公樓里的幾個房間,甚至可以是專門為容納計算機而建造的大型獨立結構。
大型計算設備始終需要設計專門的空間來容納它。當 IBM 在 1964 年推出其 System/360 時,它提供了一份 200 頁的物理規(guī)劃手冊,其中提供了有關空間和電源需求、工作溫度范圍、空氣過濾建議以及計算機正常運行所需的所有其他信息。但從歷史上看,即使是大型計算操作也可以在主要用于其他用途的建筑物內(nèi)完成。即使在今天,大多數(shù)“數(shù)據(jù)中心”也只是多用途建筑中的房間或樓層。根據(jù) EIA 的數(shù)據(jù),截至 2012 年,全國 97,000 棟建筑中都有數(shù)據(jù)中心,包括辦公室、學校、實驗室和倉庫。這些數(shù)據(jù)中心通常面積約為 2,000 平方英尺,平均僅占用其所在建筑的 2%。
我們所認為的現(xiàn)代數(shù)據(jù)中心,即專門建造的容納數(shù)萬臺計算機的大型建筑,在很大程度上是后互聯(lián)網(wǎng)時代的產(chǎn)物。谷歌的第一個“數(shù)據(jù)中心”是一個 28 平方英尺的籠子,里面有 30 臺服務器,與 AltaVista、eBay 和 Inktomi 共享空間。如今,谷歌在全球37 個專用數(shù)據(jù)中心運營著數(shù)百萬臺服務器,其中一些數(shù)據(jù)中心的面積接近一百萬平方英尺。這些數(shù)據(jù)中心以及全球數(shù)千個其他數(shù)據(jù)中心為網(wǎng)絡應用、流媒體視頻、云存儲和人工智能工具等互聯(lián)網(wǎng)服務提供支持。
大型現(xiàn)代化數(shù)據(jù)中心包含數(shù)以萬計的獨立計算機,這些計算機經(jīng)過專門設計,可以垂直堆疊在大型機架中。機架一次可容納數(shù)十臺計算機,以及操作這些計算機所需的其他設備,如網(wǎng)絡交換機、電源和備用電池。數(shù)據(jù)中心內(nèi)部的走廊包含數(shù)十或數(shù)百個機架。
圖片
服務器機架,來自“The Datacenter as a Computer”。機架以“單位”為單位測量,一個單位高 1.75 英寸常見機架容量為 42U 或 48U,但也有許多其他可用容量。 數(shù)據(jù)中心內(nèi)安裝的計算機設備數(shù)量意味著其耗電量巨大。單臺計算機耗電量并不大:機架式服務器可能耗電量只有幾百瓦,大約是吹風機功率的五分之一。但數(shù)萬臺計算機加在一起會產(chǎn)生巨大的需求。如今,大型數(shù)據(jù)中心可能需要100 兆瓦(1 億瓦)或更多的電力。這大約相當于 75,000 戶家庭所需的電力,或在電弧爐中熔化 150 噸鋼所需的電力。[2]事實上,電力需求如此重要,以至于數(shù)據(jù)中心通常以耗電量而非建筑面積來衡量(世邦魏理仕的這份報告估計,美國在建的數(shù)據(jù)中心容量為 3,077.8 兆瓦,但具體數(shù)字未知)。它們的電力需求意味著數(shù)據(jù)中心需要大型變壓器、高容量電氣設備(如開關設備),在某些情況下甚至需要一個新的變電站來將它們連接到輸電線。
所有這些電力最終都會在數(shù)據(jù)中心內(nèi)轉化為熱量,這意味著它需要同樣堅固的設備來在通電后盡快將熱量散發(fā)出去。機架位于架空地板上,通過從下方吸入并穿過設備的大量空氣保持涼爽。機架通常布置成交替的“熱通道”(熱空氣排出的地方)和“冷通道”(冷空氣吸入的地方)。熱廢氣由數(shù)據(jù)中心的冷卻系統(tǒng)排出,冷卻后再循環(huán)。這些冷卻系統(tǒng)可能很復雜,具有多個熱交換流體“冷卻回路”,但幾乎所有數(shù)據(jù)中心都使用空氣來冷卻 IT 設備本身。
圖片
熱通道冷通道數(shù)據(jù)中心布置,來自42U
圖片
三環(huán)路數(shù)據(jù)中心冷卻系統(tǒng),來自“The Datacenter as a Computer”
這些冷卻系統(tǒng)規(guī)模龐大,這并不令人意外。去除一千瓦電力所需的最小空氣量約為每分鐘 120 立方英尺;對于 100 兆瓦電力,這意味著每分鐘 1200 萬立方英尺。數(shù)據(jù)中心冷卻器的冷卻系統(tǒng)容量是普通家用空調(diào)的數(shù)千倍。即使是相對較小的數(shù)據(jù)中心也會有巨大的空氣管道、高容量冷卻設備和大型冷卻塔。此視頻展示了一個擁有一百萬加侖“冷電池”水箱的數(shù)據(jù)中心:水在夜間冷卻,此時電力更便宜,白天用來減輕冷卻系統(tǒng)的負擔。
由于耗電量巨大,人們付出了巨大的努力來提高數(shù)據(jù)中心的能源效率。數(shù)據(jù)中心的一個常見性能指標是電源使用效率 (PUE),即數(shù)據(jù)中心消耗的總電量與其 IT 設備消耗的電量之比。該比率越低,除運行計算機之外的其他用途所用的電量就越少,數(shù)據(jù)中心的效率就越高。
數(shù)據(jù)中心的 PUE 一直在穩(wěn)步下降。2007 年,大型數(shù)據(jù)中心的平均 PUE 約為 2.5:為計算機供電的每瓦電力中,有 1.5 瓦用于冷卻系統(tǒng)、備用電源或其他設備。如今,平均 PUE 已降至 1.5 多一點。超大規(guī)模企業(yè)的表現(xiàn)甚至更好:Meta 的平均數(shù)據(jù)中心 PUE 僅為1.09 ,而Google 的為 1.1 。這些改進來自諸如更高效的組件(例如轉換損耗更低的不間斷電源系統(tǒng))、更好的數(shù)據(jù)中心架構(改為熱通道、冷通道布置)以及在更高的溫度下運行數(shù)據(jù)中心,從而減少冷卻需求。
圖片
電力進入計算機后,效率也有所提高。計算機必須將電網(wǎng)中的交流電轉換為直流電;在舊計算機上,這種轉換效率只有 60%-70%,但現(xiàn)代組件可以實現(xiàn)高達 95% 的轉換效率。無論是否在做有用工作,舊計算機都會使用幾乎相同的電量。但現(xiàn)代計算機在空閑時更有能力降低功耗,從而減少電力消耗。而且,由于摩爾定律,計算本身的能源效率隨著時間的推移而提高:晶體管越來越小,意味著運行它們所需的電力更少,這意味著給定計算量所需的功率更少。從 1970 年到 2020 年,計算的能源效率大約每 1.5 年翻一番。
由于數(shù)據(jù)中心效率的穩(wěn)步提高,盡管單個數(shù)據(jù)中心變得越來越大,耗電量越來越大,但數(shù)據(jù)中心整體的耗電量卻出人意料地保持平穩(wěn)。在美國,數(shù)據(jù)中心的能耗在 2000 年至 2007 年間翻了一番,但在接下來的 10 年里一直保持平穩(wěn),盡管全球互聯(lián)網(wǎng)流量增長了 20 倍以上。2015 年至 2022 年間,全球數(shù)據(jù)中心的能耗預計將增長 20% 至 70%,但數(shù)據(jù)中心的工作量增長了 340%,互聯(lián)網(wǎng)流量增長了 600%。
圖片
2000 年至 2014 年數(shù)據(jù)中心的用電量,來自 LBL
圖片
除了功耗之外,可靠性是數(shù)據(jù)中心設計的另一個關鍵因素。一個數(shù)據(jù)中心可能服務數(shù)百萬客戶,服務中斷每分鐘可能造成數(shù)萬美元的損失。因此,數(shù)據(jù)中心的設計旨在最大限度地降低停機風險。數(shù)據(jù)中心可靠性按等級系統(tǒng)分級,從一級到四級,較高等級比較低等級更可靠。[3]
圖片
美國大多數(shù)大型數(shù)據(jù)中心都處于 Tier III 和 Tier IV 之間。它們擁有備用柴油發(fā)電機、冗余組件以防止單點故障、多條獨立的供電和冷卻路徑等。Tier IV 數(shù)據(jù)中心理論上可實現(xiàn) 99.995% 的正常運行時間,但實際上人為錯誤往往會降低這一可靠性水平。
圖片
2N 冗余電源系統(tǒng),其中每個電源組件(供電、發(fā)電機、UPS 等)都有完整備份。來自數(shù)據(jù)中心建造者圣經(jīng)
2. 數(shù)據(jù)中心趨勢 隨著時間的推移,數(shù)據(jù)中心的規(guī)模越來越大,耗電量也隨之增加。21 世紀初,數(shù)據(jù)中心的一個機架可能消耗一千瓦電力。如今,企業(yè)數(shù)據(jù)中心的典型機架耗電量為 10 千瓦或更少,而超大規(guī)模數(shù)據(jù)中心的機架耗電量可能達到 20 千瓦或更多。同樣,10 年前,幾乎所有數(shù)據(jù)中心的耗電量都低于 10 兆瓦,但如今大型數(shù)據(jù)中心的耗電量將達到 100 兆瓦或更多。而且,許多公司正在建設包含多個獨立數(shù)據(jù)中心的大型園區(qū),將總電力需求推高至千兆瓦范圍。備受關注的亞馬遜購買核電數(shù)據(jù)中心就是這樣一個園區(qū);它包括一個現(xiàn)有的48 兆瓦數(shù)據(jù)中心和足夠的擴展空間,總容量可達到960 兆瓦。隨著超大規(guī)模數(shù)據(jù)中心占據(jù)數(shù)據(jù)中心總容量的更大比例,大型數(shù)據(jù)中心和園區(qū)將變得更加普遍。 如今,數(shù)據(jù)中心仍只占整體電力需求的一小部分。國際能源署估計,截至 2022 年,全球數(shù)據(jù)中心消耗的電力占全球電力需求的 1% 至 1.3%(另有 0.4% 的電力用于加密挖礦)。但預計這一數(shù)字會隨著時間的推移而增長。SemiAnalysis 預測,到 2030 年,數(shù)據(jù)中心的電力消耗可能會增加兩倍,達到全球電力消耗的 3% 至 4.5%。而且由于數(shù)據(jù)中心建設往往高度集中,數(shù)據(jù)中心已經(jīng)是某些市場最大的電力消耗者之一。例如,在愛爾蘭,數(shù)據(jù)中心使用了近18% 的電力,到 2028 年可能會增加到 30%。在全球最大的數(shù)據(jù)中心市場弗吉尼亞州,弗吉尼亞電力公司出售的電力中有 24%流向了數(shù)據(jù)中心。
電力供應已經(jīng)成為建設新數(shù)據(jù)中心的主要瓶頸。一些司法管轄區(qū),包括數(shù)據(jù)中心歷來是主要業(yè)務的司法管轄區(qū),正在縮減建設。新加坡是世界上最大的數(shù)據(jù)中心樞紐之一,但在 2019 年至 2022 年期間暫停了數(shù)據(jù)中心的建設,并在暫停期結束后制定了嚴格的效率要求。在愛爾蘭,都柏林地區(qū)已暫停建設新數(shù)據(jù)中心,直至 2028 年。北弗吉尼亞州是世界上最大的數(shù)據(jù)中心市場,但最近,一個縣出于對電力供應的擔憂,首次拒絕了該縣的數(shù)據(jù)中心申請。
在美國,由于建設新電力基礎設施的困難,這一問題變得更加嚴重。公用事業(yè)公司建設的輸電線路數(shù)量創(chuàng)歷史新低,而漫長的互連隊列也推遲了新的發(fā)電來源。從公用事業(yè)的角度來看,數(shù)據(jù)中心可能尤其具有挑戰(zhàn)性,因為它們的需求或多或少是恒定的,從而提供了更少的負載轉移機會,并對穩(wěn)定電力產(chǎn)生了更大的需求。一家數(shù)據(jù)中心公司老板聲稱,美國可用的數(shù)據(jù)中心幾乎“斷電”,主要是因為輸電容量不足。Meta 首席執(zhí)行官馬克·扎克伯格也發(fā)表了類似的說法,他指出,“如果我們能夠獲得足夠的能源,我們可能會建造比現(xiàn)在更大的集群!币晃荒茉搭檰柡啙嵉乜偨Y了這個問題:“數(shù)據(jù)中心的建設周期為一到兩年,但能源供應卻是三年內(nèi)沒有的!
電力基礎設施問題的一部分是時間錯配。公用事業(yè)公司將主要電力基礎設施視為長期投資,以應對持續(xù)的需求增長。任何新的電力基礎設施的使用時間都可能比數(shù)據(jù)中心的壽命長得多,而公用事業(yè)公司可能不愿意僅僅為了容納它們而建造新的基礎設施。在某些情況下,數(shù)據(jù)中心和公用事業(yè)公司之間需要簽訂長期協(xié)議才能建造新的基礎設施。俄亥俄州一家電力公司最近提交了一份提案,要求數(shù)據(jù)中心從公用事業(yè)公司購買 90% 的電力,無論它們使用了多少電力。為北弗吉尼亞州供電的杜克能源公司也同樣對數(shù)據(jù)中心提出了最低購買量要求,要求它們購買最低限度的電力。
數(shù)據(jù)中心建設者正在通過探索替代位置和能源來應對有限的電力供應。從歷史上看,數(shù)據(jù)中心建在主要需求源(如大都市區(qū))或主要互聯(lián)網(wǎng)基礎設施附近,以減少延遲。4但這些地區(qū)電力短缺和鄰避主義日益高漲,可能會促使建筑商將建設轉移到電力供應更充足的小城市。建筑商也在嘗試公用電力的替代方案,例如連接到微電網(wǎng)的本地太陽能和風力發(fā)電、天然氣燃料電池和小型模塊化反應堆。 3.人工智能的影響 人工智能將對數(shù)據(jù)中心建設產(chǎn)生什么影響?有人預測,人工智能模型將變得非常龐大,訓練它們所需的計算量也非常大,以至于幾年內(nèi)數(shù)據(jù)中心可能會使用所有電力的 20% 。懷疑論者指出,歷史上數(shù)據(jù)中心需求的增長幾乎完全被數(shù)據(jù)中心效率的提高所抵消。他們指出,Nvidia 的新型、更高效的人工智能超級計算機(GB200 NVL72 )、計算效率更高的人工智能模型以及未來潛在的超高效芯片技術(如光子學或超導芯片)等都表明這一趨勢將繼續(xù)下去。 我們可以將人工智能對數(shù)據(jù)中心的可能影響分為兩個獨立的問題:對單個數(shù)據(jù)中心及其所在地區(qū)的影響以及數(shù)據(jù)中心整體對總功耗的影響。
對于單個數(shù)據(jù)中心,AI 可能會繼續(xù)推動其規(guī)模更大、功耗更高。如前所述,訓練和運行 AI 模型需要大量計算,而為 AI 設計的專用計算機會消耗大量電力。雖然典型數(shù)據(jù)中心的機架功耗約為 5 到 10 千瓦,但 Nvidia superPOD 數(shù)據(jù)中心包含 32 個 H100(Nvidia 銷售數(shù)百萬臺的專為 AI 工作負載設計的專用圖形處理單元或 GPU)的機架功耗可能超過 40 千瓦。雖然 Nvidia 的新款 GB200 NVL72 可以更高效地訓練和運行 AI 模型,但從絕對意義上講,它的功耗要高得多,每個機架的功耗高達 120 千瓦。未來專用于 AI 的芯片功耗可能會更高。即使未來的芯片計算效率更高(而且很有可能),它們?nèi)詫⑾母蟮碾娏俊?/p>
這種功率不僅遠遠超出了大多數(shù)現(xiàn)有數(shù)據(jù)中心的設計輸出能力,而且廢熱量也開始突破傳統(tǒng)空氣冷卻系統(tǒng)能夠有效消除的界限。傳統(tǒng)空氣冷卻可能僅限于 20 到 30 千瓦機架,如果使用后部熱交換器,則可能為 50 千瓦。一份數(shù)據(jù)中心設計指南指出,人工智能需求可能需要大量的氣流,因此設備需要間隔開來,由于氣流通道很大,IT 設備僅占數(shù)據(jù)中心地板空間的 10%。對于其 H100 superPOD,Nvidia 建議要么每個機架使用更少的計算機,要么將機架間隔開來以分散電力需求和冷卻要求。
由于目前的數(shù)據(jù)中心不一定適合 AI 工作負載,因此 AI 需求可能會導致專門為 AI 設計的數(shù)據(jù)中心。SemiAnalysis預測,到 2028 年,超過一半的數(shù)據(jù)中心將用于 AI。Meta 最近取消了幾個數(shù)據(jù)中心項目,以便重新設計它們以處理 AI 工作負載。AI 數(shù)據(jù)中心需要能夠為單個機架提供更大的電力,并在電力轉化為廢熱時將其移除。這可能意味著從空氣冷卻轉向液體冷卻,液體冷卻使用水或其他導熱流體從計算機和 IT 設備中去除熱量。在不久的將來,這可能意味著直接到芯片的冷卻,其中流體直接通過管道輸送到計算機芯片周圍。谷歌為 AI 工作設計的張量處理單元 (TPU) 和 Nvidia 的 GB200 NVL72 已經(jīng)采用了這種策略。從長遠來看,我們可能會看到浸入式冷卻,其中整個計算機都浸入導熱流體中。
無論采用何種冷卻技術,這些專用于人工智能的數(shù)據(jù)中心都消耗大量電力,需要建設大量新的電力基礎設施,如輸電線路、變電站和穩(wěn)定的低碳電力來源,以滿足科技公司的氣候目標。解除這些基礎設施建設的阻礙對于美國在人工智能競賽中保持領先地位至關重要。
我們的第二個問題是人工智能對數(shù)據(jù)中心總功耗的影響。人工智能會促使數(shù)據(jù)中心消耗美國越來越大的電力份額,從而危及氣候目標嗎?還是說,即使單個人工智能數(shù)據(jù)中心變得非常龐大,效率的提高是否意味著數(shù)據(jù)中心總功耗的增加微乎其微?
這更難預測,但結果可能介于兩者之間。懷疑論者正確地指出,從歷史上看,數(shù)據(jù)中心的功耗增長遠低于需求,芯片和人工智能模型可能會變得更高效,而對當前功率需求的天真推斷可能不準確。但也有理由相信,數(shù)據(jù)中心的功耗仍將大幅上升。在某些情況下,效率改進被夸大了。Nvidia 的 NVL72 的效率改進在實踐中可能遠低于 Nvidia 用于營銷目的的 25 倍數(shù)字。許多電力需求預測,例如超大規(guī)模企業(yè)內(nèi)部使用的預測,已經(jīng)考慮到了未來的效率改進。雖然超導芯片或光子學等新型超低功耗芯片技術可能是未來的可行選擇,但這些都是遙遠的技術,在未來幾年內(nèi)不會解決電力問題。
從某種程度上來說,數(shù)據(jù)中心節(jié)能的機會比以前少了很多。從歷史上看,數(shù)據(jù)中心的電力消耗基本持平,主要是因為 PUE 增加(用于冷卻、UPS 系統(tǒng)等的電力減少)。但其中許多收益已經(jīng)實現(xiàn):最好的數(shù)據(jù)中心已經(jīng)只將 10% 的電力用于冷卻和其他非 IT 設備。
懷疑論者還沒有意識到 AI 模型可能會變得多么龐大,而提高的芯片效率可能會多么容易被更多的計算需求所吞噬;ヂ(lián)網(wǎng)流量用了大約 10 年的時間才增長了 20 倍,但尖端 AI 模型每年的計算強度卻增加了4 到 7 倍。SemiAnalysis對數(shù)據(jù)中心的預測考慮了當前和預計的 AI 芯片訂單、科技公司資本支出計劃以及現(xiàn)有數(shù)據(jù)中心的功耗和 PUE 等因素,表明到 2030 年全球數(shù)據(jù)中心的功耗將增加兩倍以上,達到全球電力需求的 4.5%。無論總體趨勢如何,單個數(shù)據(jù)中心不斷增長的電力需求仍將帶來需要解決的基礎設施和選址挑戰(zhàn)。
4.結論 互聯(lián)網(wǎng)及其數(shù)字基礎設施的興起需要建設大量的物理基礎設施來支持它:容納數(shù)萬臺計算機和其他 IT 設備的數(shù)據(jù)中心。隨著對這些基礎設施的需求不斷增加,數(shù)據(jù)中心變得越來越大,耗電量也越來越大。現(xiàn)代數(shù)據(jù)中心所需的電力與一座小城市相當,而多個數(shù)據(jù)中心的園區(qū)使用的電力與一座大型核反應堆相當。 人工智能的興起將加速這一趨勢,需要更多數(shù)據(jù)中心,而這些數(shù)據(jù)中心的耗電量也越來越大。為它們找到足夠的電力將變得越來越具有挑戰(zhàn)性。這已經(jīng)開始推動數(shù)據(jù)中心建設到有可用電力的地區(qū),隨著數(shù)據(jù)中心建設和更廣泛的電氣化需求不斷增加,這種限制只會變得更加嚴格。
[1]浮點運算是對十進制數(shù)的數(shù)學運算,例如 11.2 + 3.44 或 99.8 / 6.223。 [2]根據(jù)鋼鐵公司的介紹,典型的電弧爐每小時可生產(chǎn) 130 至 180 噸鋼鐵,每噸鋼鐵需要 650 千瓦時的電力。這樣可以產(chǎn)生 97,500 千瓦或 97.5 兆瓦的電力。 [3]其他國家有時也有自己的數(shù)據(jù)中心評級系統(tǒng),與此分級系統(tǒng)大致相對應。一些提供商聲稱他們擁有更可靠的 Tier V 數(shù)據(jù)中心,這是一個非官方的等級,似乎沒有得到數(shù)據(jù)中心貿(mào)易組織 Uptime Institute 的認可。 [4]靠近主要互聯(lián)網(wǎng)基礎設施是北弗吉尼亞州成為數(shù)據(jù)中心熱點的原因之一。
|
|