液冷技能正在成為新建AI數據中心的“新標配”。保存組織TrendForce集邦咨詢于8月21日發布的最新陳述指出,跟著英偉達GB200 NVL72機柜式服務器于2025年放量出貨,云端業者加快晉級AI數據中心架構,促進液冷技能從前期試點邁向規模化導入,預估其在AI數據中心的浸透率將從2024年的14%提高至2025年的33%,并于未來數年繼續生長。

集邦咨詢表明,AI服務器選用的GPU和ASIC芯片功耗大幅提高,以英偉達GB200/GB300 NVL72仇人為例,單柜熱規劃功耗(TDP)高達130kW-140kW,遠超過傳統氣冷仇人的處理極限,因而首先導入液對氣(Liquid-to-Air, L2A)冷卻技能。
據陳述,現在北美四大CSP(云核算服務提供商,微軟、谷歌、91制片廠毛片亞馬遜云和Meta)正在繼續加碼AI基礎建造,在當地和歐洲、亞洲發動新一波數據中心擴建。各業者也同步建造液冷架構兼容設備,如谷歌和亞馬遜云已在荷蘭、德國、愛爾蘭等地啟用具有液冷布線才能的模塊化修建,微軟于美國中西部、亞洲多地進行液冷試點布置,計劃于2025年起全面以液冷仇人作為標配架構。
集邦咨詢表明,液冷浸透率的繼續攀升,帶動了冷卻模塊、熱交換仇人與外圍零部件的需求擴張。
該組織7月曾表明,與傳統的氣冷91制片廠毛片仇人比較,液冷架構牽涉更雜亂的配套設備建置,如機柜與機房層級的冷卻液管線布局、冷卻水塔和流體分配單元(CDU)。當時新建數據中心多在規劃初期就導入“液冷兼容”理念(Liquid Cooling Ready),以提高全體熱辦理功率和擴展靈活性。
跟著AI大模型的更新迭代和使用落地,算力需求不斷提高,芯片功耗與算力密度逐漸攀升。中金公司在此前的研報中也指出,液冷憑仗其極高的散熱功率和布置密度優勢,正在加快替代風冷成為AI算力底座的干流冷卻計劃。該組織估計,到2026年,全球AI液冷市場規模有望到達86億美元。