輝達AI灌急單!臺積電先進封裝狂爆 這5檔有富爸爸罩

臺積電先進封裝擴產,相關設備廠吃補。(示意圖/達志影像/shutterstock)

編按:臺積電近期積極擴充先進封裝產能,將帶動先進封裝供應鏈,包含溼製程的辛耘、弘塑;貼膜設備的志聖;揀晶設備的均華、AOI檢測設備的萬潤等,業績成長可期。

-------------------------------------

隨着AI持續發展,伺服器用GPU需求激增,Nvidia增加對臺積電投片量帶動CoWoS產能供不應求,臺積電提前擴產無疑替設備供應商營運注入強心針。

近期受到ChatGPT熱潮所帶動的生成式AI應用興起,GPU需求快速飆升,被視爲全球最大AI軍火商的輝達(Nvidia)更是在最近一次法說會中表示,目前正有「令人難以置信的訂單」,並直言現在是資料中心十年轉型期的起點。

Nvidia擴大下單

雖然Nvidia在去年面臨PC景氣下滑,與加密貨幣挖礦潮消退,導致消費型產品RTX 40系列訂單大幅修正,但近期受到資料中心的AI伺服器需求快速增加,許多國際大客戶如微軟(Microsoft)、谷歌(Google)、甲骨文(Oracle)等除了持續採購Nvidia DGX A100伺服器之外,下半年也將會陸續導入Nvidia DGX H100新機種,由於新機種在平均售價比舊款高出二∼二.五倍,將會推動整體AI伺服器市場營收規模放大。

根據TrendForce預估,今年度全球AI伺服器出貨將達近一二○萬臺,年增三八.四%,直到二○二六年將成長至二三六.九萬臺,年複合成長率達二二%,除了搭載FPGA、ASIC的AI伺服器,Nvidia的GPU仍爲目前AI伺服器晶片主流,市佔率約六○∼七○%,其次爲雲端服務商自主研發的ASIC,市佔率約二○%。

據瞭解,相較於傳統通用型的伺服器,是以CPU爲主算力,而應用於ChatGPT等大型語言模型的AI伺服器則以CPU+GPU爲主要架構,以Nvidia DGX H100伺服器爲例,本身搭載二個CPU和八個H100 GPU,與前一代的A100相比,H100在每秒一千兆次(petaflop)浮點運算的千瓦數能源效率提高了兩倍,整體效能提升四.五倍。

其實,Nvidia旗下伺服器用GPU一直以來都是使用臺積電的CoWoS封裝,從過去的P100、V100到最新推出的GH200等,根據野村證券估計,Nvidia今年對CoWoS的需求已從年初預估的三萬片晶圓大幅成長至四.五萬片,成長幅度達五○%。

臺積電CoWoS供不應求

值得注意的是,中國方面先前受限於美國政府的半導體禁令,導致Nvidia A100、H100禁止銷往中國市場,Nvidia爲符合美國政府規定,快速推出可規避禁令的A800、H800的降規版晶片,目前也已下單臺積電七、四奈米,預計第三季全面放量。

過去,在臺積電的營收組成當中,智慧型手機營收一直都大於高速運算(HPC),最明顯的貢獻就是蘋果iPhone的A系列處理器都是採用整合扇出型封裝(InFO),直到二○二二年HPC營收比重正式超越手機,AI產業的快速成長扮演重要推手,未來此趨勢將更明確。