siemens x
工業(yè)數據中心

2024看得見的未來:數據中心行業(yè)十大發(fā)展趨勢

2025China.cn   2024年01月26日

2023年,我們見證了人工智能(AI)的爆發(fā),它正在改變人們的工作、生活、以及與技術交互的方式。以ChatGPT為代表的生成式AI也因其顯著的進步和廣泛的應用,在去年引起了極大的關注。隨著人工智能的不斷發(fā)展和成熟,將有可能徹底改變從醫(yī)療保健、金融、生產制造到交通、娛樂等眾多行業(yè)。市場對人工智能的巨大需求推動了新的芯片和服務器技術的發(fā)展,這些變化將對數據中心的建設、電力需求、水資源消耗、供配電和制冷技術與架構帶來顛覆性的挑戰(zhàn)。如何應對這些挑戰(zhàn),將在新的一年成為行業(yè)備受關注的議題。

作為數據中心、行業(yè)關鍵應用領域基礎設施建設和數字化服務的全球領導者,自2018年起,施耐德電氣已經連續(xù)第7年在年初發(fā)布《看得見的未來—數據中心行業(yè)的新趨勢與新突破》系列洞察,開創(chuàng)了行業(yè)趨勢前瞻解讀先河,并持續(xù)引領未來變革方向,為數據中心行業(yè)注入強勁發(fā)展動力。立足深刻的行業(yè)洞察和實踐,施耐德電氣致力于揭示新一年數據中心行業(yè)會發(fā)生哪些變化,這些變化和趨勢對數據中心運營商的價值和意義,以及對這些行業(yè)變化的看法和價值主張。以下是施耐德電氣全球數據中心科研中心對2024年發(fā)展趨勢的預測。

趨勢一:智算中心將引領數據中心建設

過去十年,云計算一直是推動數據中心建設與發(fā)展的主要驅動力,目的是為社會提供數字化轉型所需的通用算力。但是,AI的爆發(fā)帶來了巨大的算力需求,為了滿足AI大模型的訓練和應用推理,我們需要建設大量的智算中心。施耐德電氣根據全球數據中心的用電量,GPU芯片和AI服務器未來的出貨量等數據,估算出全球智算中心目前的電力需求為4.5 GW,占數據中心總57 GW的8%,并預測到2028年它將以26%-36%的年復合增長率增長,最終達到14.0 GW至18.7 GW,占總93 GW的15%-20%。這一增長速度是傳統(tǒng)數據中心年復合增長率(4%-10%)的2到3倍。算力的分布也會由現在的集中部署(集中vs. 邊緣為95%:5%)向邊緣遷移(50%:50%),這意味著智算中心將引領數據中心建設的潮流。根據工信部的規(guī)劃,我們國家智能算力的占比將在2025年達到35%,年均復合增長率在30%以上。施耐德電氣認為相較于傳統(tǒng)數據中心,智算中心的建設需要在確保高能效和高可用的前提下,實現可持續(xù)發(fā)展和更具前瞻性,也就是最小化對環(huán)境的影響,尤其需要提高適應性來滿足未來IT技術(高功耗的芯片和服務器)的需求。

趨勢二:AI將推動機柜功率密度驟升

機柜功率密度對數據中心的設計與造價具有較大的影響,包括供配電、制冷以及IT機房的布局等,一直都是數據中心比較關注的設計參數之一。Uptime過去幾年的調研結果顯示,服務器機柜的功率密度正在穩(wěn)步但緩慢地攀升。機柜的平均功率密度通常低于6千瓦,大多數運營商沒有超過20千瓦的機柜。造成這一趨勢的原因包括摩爾定律使芯片的熱設計功耗維持在相對較低的水平(150瓦),同時高密服務器通常被分散部署在不同的機柜以降低對基礎設施的要求。但AI的爆發(fā)將改變這一趨勢,施耐德電氣研究發(fā)現,用于訓練的AI機柜功率密度可以高達30-100千瓦(取決于芯片的類型和服務器的配置)。而造成這一高密的原因是多方面的,包括快速提升的CPU/GPU熱設計功耗,CPU為200-400瓦,GPU為400-700瓦,未來還會進一步升高;AI服務器的功耗通常在10千瓦左右,由于GPU是并行工作的,AI服務器需要以集群的方式緊湊部署,以降低芯片和存儲之間的網絡時延。機柜功率密度的陡增將給數據中心物理基礎設施的設計帶來巨大挑戰(zhàn)。

趨勢三:數據中心正在從風冷向液冷過渡

風冷一直都是數據中心IT機房冷卻的主流方式,如果設計得當,可支持十幾個千瓦甚至更高的機柜功率密度。但隨著對AI訓練性能的不斷追求,開發(fā)人員不斷提高芯片的熱設計功耗,對這些芯片進行風冷變得不切實際。雖然一些服務器供應商通過重新設計芯片的散熱器、增加服務器風量以及進出風溫差,以不斷突破風冷技術的極限,配置40-50千瓦風冷型的AI機柜,但這會使風扇的功耗呈指數級增加。例如,AI服務器風扇可以消耗高達25%的服務器功率,但傳統(tǒng)服務器的典型值只有8%。施耐德電氣認為芯片的冷卻才是液冷的主要驅動力,20千瓦機柜功率密度是風冷和液冷相對合理的分界線。當AI機柜功率密度超過這一數值時,應重點考慮采用液冷服務器。相較于風冷,液冷還帶來了諸多好處,包括處理器可靠性和性能提升、能源效率提升、用水量減少以及噪音水平降低等等。目前,對于高密的AI服務器,供應商通常提供風冷和液冷兩種方案,但對于下一代GPU,液冷將是唯一選擇。

趨勢四:配電的安全可靠在智算中心更加重要

對于傳統(tǒng)數據中心,不同工作負載同時達到峰值的概率極低。比如,典型的大型數據中心峰均比通常在1.5-2.0或更高。但在智算中心,由于AI訓練負載缺乏變化(峰均比接近1.0),工作負載可以在峰值功率下,運行數小時、數天甚至數周。其結果是增加了上游大型斷路器脫扣的可能性,以及宕機的風險。同時,由于機柜功率密度的升高,需要采用更高額定電流值的斷路器、列頭柜、小母線等。而在電阻變小的同時,可以通過的故障電流也就更大,這意味著IT機房出現拉弧的風險也會升高,保證該區(qū)域工作人員的安全是必須解決的難題。施耐德電氣建議在設計階段采用模擬軟件對電力系統(tǒng)進行弧閃風險評估,分析可產生的故障電流,并且對可靠性進行分析,以便為特定場地設計最佳解決方案。這項研究必須從中壓開關柜分析至機柜層面,同時建議如果新建數據中心IT機房的AI訓練工作負載超過60-70%,需要根據下游各饋線斷路器的總和來確定主斷路器的大小,設計時不再考慮同時系數。

趨勢五:標準化將成為液冷推進的關鍵

冷板式液冷和浸沒式液冷是數據中心液冷的兩種主流方式。究竟選擇哪種液冷方式以及如何實現快速部署一直都是行業(yè)熱議的話題。隨著越來越多AI服務器采用冷板式液冷,冷板式液冷也更容易與傳統(tǒng)的風冷系統(tǒng)兼容,受到很多數據中心運營商的青睞。但是服務器廠家液冷的設計方式多種多樣,快速接頭、盲插和Manifold的兼容性存在諸多問題,IT與基礎設施的責任邊界也模糊不清,這大大限制了液冷在數據中心的接受度和推廣。相較于冷板式液冷,采用碳氟化合物流體的浸沒式液冷不僅價格相對較高,而且很多碳氟化合物屬于對環(huán)境有害的人工合成類化學物質,面臨越來越多的行業(yè)監(jiān)管與政策壓力。因此,浸沒式液冷除了采用油類冷卻液,可用的碳氟化合物流體將越來越少。施耐德電氣建議IT廠家提供更為標準化的設計方案,包括流體的溫度、壓力、流量、設備的接口等,并且提供更加明確的責任邊界。施耐德電氣將在第一季度發(fā)布液冷白皮書,來幫助數據中心更好地部署液冷技術。

趨勢六:數據中心將更加關注WUE

水資源短缺正在成為許多地區(qū)的嚴重問題,了解和減少數據中心的水資源消耗變得越來越重要。此前,數據中心水資源消耗未被重視的一個重要原因是用水成本相對用電通常是微不足道的,甚至很多數據中心通過消耗更多的水來提高能效。但是,數據中心的用水已經引起了很多當地政府的關注,尤其在水資源匱乏的地區(qū),政府正在出臺各項政策來限制和優(yōu)化數據中心的用水。這其中包括將WUE作為數據中心的設計指標,采用水電雙控政策。因此,減少用水量將成為許多數據中心運營商未來關注的重點領域。施耐德電氣通過對數據中心行業(yè)用水量的研究,認為數據中心的WUE值在 0.3-0.45 L/kWh之間是一個相對優(yōu)秀的數值。施耐德電氣建議根據數據中心所在地域水資源情況、氣候情況和數據中心類型,尋找用電與用水之間的平衡。行業(yè)可以采用絕熱蒸發(fā)、間接蒸發(fā)冷卻、液冷等各種技術創(chuàng)新,從而減少直接用水量。數據中心運營商應將WUE作為可持續(xù)發(fā)展目標的一部分,報告用水量/節(jié)水量,同時關注用電所帶來的間接用水量。

趨勢七:提升配電能力將成為智算中心新的訴求

在智算中心,隨著機柜功率密度的提升以及AI機柜的集群化部署,IT機房的配電面臨額定容量偏小的挑戰(zhàn)。比如,過去一個300 kW的配電模塊可以支持幾十臺甚至是上百臺機柜。而如今,同樣配電模塊的電量甚至無法支持一個最低配置的NVIDIA DGX SuperPOD AI集群(單排358 kW的10個機柜,每機柜36 kW)。配電模塊規(guī)格太小,使用多個配電模塊不僅浪費IT空間,也變得不切實際。與單個大容量配電模塊相比,多個配電模塊還會增加成本?;貧w配電的本質,提高配電容量的主要手段就是增大電流。施耐德電氣建議在設計時應選擇規(guī)格足夠高的配電模塊,實現彈性部署,從而適應未來的配電需求,以至少支持一整排集群為準。比如,在額定電壓下,800 A的配電模塊是目前適用于所有三種配電類型(PDU,RPP和母線)的標準容量尺寸,可提供576 千瓦(降容后為461 千瓦)。對于末端配電可以使用小母線,從而避免了定制大于63 A額定電流的機柜PDU。在空間允許的情況下,可以使用多個標準化的機柜PDU作為過渡。

趨勢八:AI將賦能數據中心的節(jié)能改造

數據中心通過提供AI算力推動人類社會向著自動化、數字化和電氣化等更加可持續(xù)的方向演進,賦能交通、制造和發(fā)電領域減少對環(huán)境的影響。反過來,AI也可以賦能數據中心能源的優(yōu)化,來減少其自身對環(huán)境的影響。比如,AI和機器學習技術可以用于數據中心冷源系統(tǒng)和空調末端的控制,通過對歷史數據的分析,實時監(jiān)測數據中心氣流分布,并基于數據中心IT負載的變化,實時匹配合適的冷量輸出。通過自動調節(jié)末端精密空調及風機的運轉方式,從而實現動態(tài)地按需制冷,以減少熱點并且降低機房的能源消耗與運維成本。施耐德電氣認為AI技術在機房空調群控系統(tǒng)中的應用,可以實現機房內部環(huán)境參數的智能監(jiān)測和控制,并通過自動調節(jié)與優(yōu)化來提高能效和系統(tǒng)的可靠性,從而達到節(jié)能減排的目的。隨著AI技術的持續(xù)普及,以及國家對數據中心節(jié)能降耗的持續(xù)要求,無論是新建還是改造項目,AI技術在數據中心空調群控系統(tǒng)中均將得到更多的關注與應用。

趨勢九:配電系統(tǒng)的占地面積將引關注

在數據中心設計中,追求IT機房面積占比的最大化,即盡可能減少輔助設備間的占地面積,一直都是數據中心設計的主要訴求之一。對于傳統(tǒng)的數據中心,IT機房的面積與配電室的面積之比通常為1.5:1左右。隨著AI驅動IT機柜的高密化,越來越多的IT機房采用液冷方式,液冷IT機房的面積與配電室的面積之比將發(fā)生逆轉,在0.6:1左右。這時,配電室的占地面積將引起數據中心設計人員的更多關注,優(yōu)化配電室的占地面積也必將成為行業(yè)的一個發(fā)展方向。施耐德電氣認為在更小的占地面積內,提高配電和電源設備的供電容量是有效的途徑之一。比如,減小UPS系統(tǒng)的占地面積,包括采用更高功率電源模塊的模塊化UPS,實現兆瓦級單柜功率;同時采用鋰電池取代鉛酸蓄電池,可以將電池間的占地面積減少40-60%。集中部署供配電設備(比如:電力撬塊)也可以減少配電間的占地面積;采用體積緊湊的模塊化配電柜和池化柴油發(fā)電機等應急電源也是有效的手段。

趨勢十:儲能系統(tǒng)在數據中心的價值日益凸顯

UPS系統(tǒng)在實現數據中心電能質量治理和不間斷供電方面一直發(fā)揮著重要的作用。隨著數據中心運營商面臨著提高可持續(xù)性和財務績效,同時保持或增強供配電系統(tǒng)的可靠性和彈性的壓力,新的能源存儲和發(fā)電技術提供了新的可能性,但也對傳統(tǒng)數據中心運營模式和電氣架構提出了挑戰(zhàn)。電池和燃料電池等分布式能源技術能夠有效產生或存儲清潔能源。儲能系統(tǒng)除提供傳統(tǒng)UPS系統(tǒng)功能外,還可以通過在用電高峰時釋放存儲的能量來管理電力需求高峰,實現扛峰增載;通過削峰填谷,降低數據中心用電成本,來實現能源成本優(yōu)化;同時參與電網的需求響應,實現創(chuàng)收。施耐德電氣認為數據中心實現可持續(xù)發(fā)展,需要降低能源成本,充分利用擱淺的資產,減少對柴油發(fā)電機的依賴,并保持獨立于電網的業(yè)務彈性,這些需求為儲能系統(tǒng)在數據中心的采用創(chuàng)造了更多有效的應用場景與價值。隨著鋰電池儲能系統(tǒng)價格的不斷下降和電氣架構的創(chuàng)新,數據中心可以通過微網系統(tǒng)提供對能源供應的更大控制權和自主權;在沒有微網的情況下,也可以通過部署儲能系統(tǒng)來獲得競爭優(yōu)勢。

進入2024年,數據中心行業(yè)的重點將從傳統(tǒng)數據中心建設轉向智算中心建設,通過不斷的技術創(chuàng)新來實現智算中心的可持續(xù)發(fā)展與適應下一代IT技術是關鍵所在。

以上對新興趨勢的預測來自施耐德電氣全球數據中心科研中心,該部門設立于上個世紀九十年代。科研中心始終以“探索數據中心行業(yè)的技術和發(fā)展趨勢,倡導最佳實踐”為團隊使命,通過發(fā)表通俗易懂的白皮書和權衡工具助力數據中心用戶提高可用性和優(yōu)化能效,賦能數據中心的可持續(xù)發(fā)展,最大化數據中心的商業(yè)價值。截至2023年,施耐德電氣科研中心團隊已經發(fā)表白皮書230余篇,每年有超過40萬的下載量;權衡工具30個,每年有超過2萬用戶在線使用。所有白皮書和權衡工具都免費提供給整個行業(yè)學習和使用,在推動數據中心行業(yè)的發(fā)展的同時充分印證了施耐德電氣在數據中心行業(yè)思想領袖的地位。

(轉載)

標簽:施耐德電氣 我要反饋 
2024世界人工智能大會專題
即刻點擊并下載ABB資料,好禮贏不停~
優(yōu)傲機器人下載中心
西克
2024全景工博會
專題報道