《科技》TrendForc科技業預測:晶片先進製程利用率明年仍俏(3-2)
值得注意的是,由於AI晶片迭代持續推升算力,使得相應的熱設計功耗(TDP)持續增加,如NVIDIA A100最高TDP約爲400W,進入H100增至700W,下一代Blackwell系列則將突破1,000W大關。越來越高的TDP需要更多Power IC協助管理功率傳輸、降低轉換的能源損耗,進而提高整體效能。TrendForce預估,AI GPU所需Smart Power Stage(SPS) 數量隨着產品迭代更新急遽增長,將帶動相關需求在2023至2025年期間暴增2至3倍,成爲支撐成熟製程產能的一項新動能。
儘管現階段AI GPU Power相關供應商仍以歐美日IDM、設計公司爲主,臺系廠商仍希望打入供應鏈爭取市佔。此外,基於地緣政治考量,AI GPU Power供應商的轉單亦有望成爲明年支撐部分臺系晶圓代工成熟產能利用率之動能。
五、面板級封裝與AI晶片結合的可能。FOPLP的產品應用主要可分爲PMIC及RF IC、消費性CPU及GPU、AI GPU等三類。其中, PMIC及RF IC採用chip-first技術,原本主要由OSAT業者深耕,後續隨着製程授權商興起,推動IDM及面板業者加入,擴大量產規模; 消費性CPU及GPU採用chip-last技術,由已累積生產經驗及產能的OSAT業者開發,預估產品量產時間最早落在2026年;AI GPU則採用chip-last技術,由晶圓代工業者主導,在晶粒尺寸擴大及封裝顆數增加的趨勢下,尋求將原本的CoWoS封裝由wafer level擴大至panel level,產品量產時間最早爲2027年。而FOPLP的發展尚面臨挑戰,包括技術瓶頸、面板尺寸多元等將分散設備研發量能,及業者傾向待回收FOWLP產能的投資後再投入FOPLP的產能投資。
六、2025年全球AI 伺服器市場及產業鏈關鍵發展動向預測。觀察全球AI市場發展動態,受惠2024年CSPs及品牌客羣對建置AI基礎設施需求強勁,全球AI伺服器(含搭載GPU、FPGA、ASIC等)出貨年成長可達42%;2025年受雲端業者及主權雲等需求帶動,出貨量可望再成長約28%,推動AI伺服器佔整體伺服器比例提高至近15%。中長期來看,預期在各種雲端AI訓練及推論應用服務推進下,2027年AI伺服器佔比有機會逼近19%。
觀察主要AI晶片供應商,NVIDIA表現一枝獨秀,估計其2024年在GPU市場的市佔率將接近90%,預期2025年上半Blackwell新平臺將逐步放量,成爲NVIDIA高階GPU出貨主流,透過搭載純GPU(如B200)或整合自家Grace CPU的GB200等多元方案,以滿足不同客羣的需求。其他業者如AMD、Intel及CSPs在積極發展新一代AI晶片趨勢下,將推升2025年出貨成長動能,進一步帶動CoWoS、HBM出貨量翻倍成長。對於訴求更高效能的AI伺服器或機櫃型方案,也將明顯拉昇液冷散熱方案滲透率。(3-2)