在AI算力狂飆的時代,服務(wù)器集群正經(jīng)歷著性能與功耗的螺旋式攀升。數(shù)據(jù)顯示,單顆旗艦級GPU功耗已突破700W大關(guān),傳統(tǒng)風(fēng)冷系統(tǒng)在應(yīng)對高熱密度時愈發(fā)捉襟見肘。
更嚴(yán)峻的挑戰(zhàn)來自存量化機(jī)房改造。全國約65%的機(jī)房建設(shè)于2015年前,這些密閉空間既要承載翻倍的設(shè)備功率密度,又受制于原始設(shè)計的通風(fēng)局限。某高校數(shù)據(jù)中心曾因散熱不足被迫將服務(wù)器間距擴(kuò)大40%,直接導(dǎo)致算力資源利用率下降25%。
而老舊建筑的隔音缺失更讓持續(xù)60dB以上的風(fēng)機(jī)轟鳴成為辦公環(huán)境的隱形殺手,如何在有限空間內(nèi)實現(xiàn)"高算力+超靜音"的雙重突破,已成為數(shù)字化轉(zhuǎn)型浪潮中的關(guān)鍵命題。
億萬克自研液冷系統(tǒng),技術(shù)成熟,生態(tài)完善,總體成本可控,特別適用于老舊機(jī)房散熱改造升級。其關(guān)鍵優(yōu)勢在于該技術(shù)升級無需改變客戶的使用習(xí)慣,硬盤、光模塊等部件與風(fēng)冷保持一致,運維模式、機(jī)房承重與風(fēng)冷場景也基本一致,同時單點散熱能力可達(dá)700W以上,可有效降低PUE至1.2以下,滿足客戶的多種需求。
億萬克冷板式液冷解決方案采用一體式模塊化設(shè)計,系統(tǒng)由冷板式服務(wù)器、整機(jī)柜、冷量分配單元(CDU)、冷卻工質(zhì)供回液歧管(Manifold)、連接管路等組成,采用液冷與風(fēng)冷技術(shù)有效組合進(jìn)行高效冷卻。外部接口全部采用快裝卡盤及端子結(jié)構(gòu),易于操作。
適用需求:
1、場地受限或無法建設(shè)機(jī)房
2、需要快速部署和交付
3、靈活擴(kuò)展型機(jī)房
4、安裝地區(qū)敏感型機(jī)房
(來源:億萬克)