AI 帶動 集邦:液冷散熱技術航向新藍海

全球調研機構TrendForce認爲,對於訴求更高效能的AI伺服器或機櫃型方案,將明顯拉昇液冷散熱方案滲透率;TrendForce預估,2025年隨着GB200機櫃方案正式放量出貨,將帶動整體AI晶片的液冷散熱滲透率,從2024年的11%提升至2025年的24%。

TrendForce表示,觀察全球AI市場發展動態,受惠2024年CSPs及品牌客羣對建置AI基礎設施需求強勁,全球AI伺服器(含搭載GPU、FPGA、ASIC等)出貨年成長可達42%;2025年受雲端業者及主權雲等需求帶動,出貨量可望再成長約28%,推動AI伺服器佔整體伺服器比例提高至近15%。中長期來看,預期在各種雲端AI訓練及推論應用服務推進下,2027年AI伺服器佔比有機會逼近19%。

觀察主要AI晶片供應商,NVIDIA表現一枝獨秀,估計其2024年在GPU市場的市佔率將接近90%,預期2025年上半Blackwell新平臺將逐步放量,成爲NVIDIA高階GPU出貨主流,透過搭載純GPU(如B200)或整合自家Grace CPU的GB200等多元方案,以滿足不同客羣的需求。

其他業者如AMD、Intel及CSPs在積極發展新一代AI晶片趨勢下,將推升2025年出貨成長動能,進一步帶動CoWoS、HBM出貨量翻倍成長。對於訴求更高效能的AI伺服器或機櫃型方案,也將明顯拉昇液冷散熱方案滲透率。

TrendForce表示,近年來Google、AWS和Microsoft等大型美系雲端業者皆積極於全球建置新資料中心並加快布建AI server。由於晶片算力升級,熱設計功耗(TDP)將顯著提升,如NVIDIA 新推出的GB200 NVL72機櫃方案之TDP將高達約140kW,須採用液冷方案纔能有效解決散熱問題,預計初期將以水對氣(Liquid-to-Air, L2A)方式爲主流。

TrendForce預估,2025年隨着GB200機櫃方案正式放量出貨,將帶動整體AI晶片的液冷散熱滲透率,從2024年的11%提升至2025年的24%。另外,就雲端業者自研高階AI ASIC來說,觀察Google爲最積極採用液冷方案的美系業者,其餘雲端業者仍以氣冷爲主要散熱方案。

此外,在全球政府及監管機構對於ESG意識逐漸提升下,將加速帶動散熱方案由氣冷轉液冷形式發展,預期液冷方案滲透率逐年攀升,促使電源供應廠商、散熱業者及系統整合廠等競相投入AI液冷市場,形成新的產業競合態勢。