根據TrendForce最新液冷產業研究,隨著NVIDIA GB200 NVL72機櫃式伺服器於2025年放量出貨,雲端業者加速升級AI資料中心架構,促使液冷技術從早期試點邁向規模化導入,預估其在AI資料中心的滲透率將從2024年14%,大幅提升至2025年33%,並於未來數年持續成長。
TrendForce表示,AI伺服器採用的GPU和ASIC晶片功耗大幅提升,以NVIDIA GB200/GB300 NVL72系統為例,單櫃熱設計功耗(TDP)高達130kW-140kW,遠超過傳統氣冷系統的處理極限,遂率先導入液對氣(Liquid-to-Air, L2A)冷卻技術。
受限於現行多數資料中心的建築結構與水循環設施,短期內L2A將成為主流過渡型散熱方案。隨著新一代資料中心自2025年起陸續完工,加上AI晶片功耗與系統密度不斷升級,預期液對液(Liquid-to-Liquid, L2L)架構將於2027年起加速普及,提供更高效率與穩定的熱管理能力,逐步取代現行L2A技術,成為AI機房的主流散熱方案。
目前北美四大CSP持續加碼AI基礎建設,於當地和歐洲、亞洲啟動新一波資料中心擴建。各業者也同步建置液冷架構相容設施,如Google和AWS已在荷蘭、德國、愛爾蘭等地啟用具液冷佈線能力的模組化建築,Microsoft於美國中西部、亞洲多處進行液冷試點部署,計畫於2025年起全面以液冷系統作為標配架構。
TrendForce指出,液冷滲透率持續攀升,帶動冷卻模組、熱交換系統與週邊零組件的需求擴張。作為接觸式熱交換核心元件的冷水板(Cold Plate),主要供應商包含Cooler Master、AVC、BOYD與Auras,除BOYD外的三家業者已在東南亞地區擴建液冷產能,以因應美系CSP客戶的高強度需求。
流體分配單元(CDU)為液冷循環系統中負責熱能轉移與冷卻液分配的關鍵模組,依部署方式分為in-row和sidecar兩大類。Sidecar CDU目前是市場主流,Delta為領導廠商。Vertiv和BOYD為in-row CDU主力供應商,其產品因散熱能力更強,適用於高密度AI機櫃部署。
快接頭(QD)則是液冷系統中連接冷卻流體管路的關鍵元件,其氣密性、耐壓性與可靠性是散熱架構運作的安全穩定性關鍵。目前NVIDIA GB200專案由國際大廠主導,包括CPC、Parker Hannifin、Danfoss和Staubli,以既有認證體系與高階應用經驗取得先機。
若有興趣進一步了解並購買TrendForce旗下半導體研究處相關報告與產業數據,請至https://www.trendforce.com.tw/research/dram查閱,或洽詢SR_MI@trendforce.com。
相關文章
相關報告