時事觀點

AI深耕程度左右全球半導體排名(工商時報)
劉佩真

2024/04/25
轉載自<工商時報  名家評論>

文/劉佩真■台經院產經資料庫總監、APIAA理事

據全球科技產業研調機構Omdia的統計,2023年全球前五大半導體業者排名,CPU巨擘英特爾(Intel)雖取代三星(Samsung)躍居首位,不過營收年減15.8%,而GPU龍頭輝達(NVIDIA)表現驚人,從2022年的第八名一口氣跳升至亞軍,且營收年增率高達133.6%,與英特爾的營收差距僅有20億美元,代表著專注於人工智慧(AI)的業者已成為引領半導體產業的重要成長火車頭。反觀三星則因記憶體產業不景氣所造成的價量齊跌,使其從冠軍跌落至第三名,高通(Qualcomm)、博通(Broadcom)則分居第四、五名。

上述情況顯示,AI客戶訂單能見度相當明確,輝達、微軟(Microsoft)、OpenAI等大廠引領的AI浪潮經過2023年試煉後,並非外界認為的泡沫應用,隨著更多國際大廠爭相進入AI晶片戰場,代表著新工業革命已經展開。而生成式AI商機爆發為GPU晶片創造大量需求,相對帶動AI市場中關鍵領導者輝達及相關供應鏈的業績,並提升其在半導體業的地位,同時也反映出業者於AI深耕的程度已影響全球半導體業排名。

■輝達與台積電相得益彰 是兩大贏家

此波AI熱潮下,最大的受益廠商非輝達、台積電、SK Hynix莫屬,而其所代表的產品項目分別為GPU、先進邏輯IC製程晶圓代工,以及先進封裝、HBM等。

輝達於3月GTC大會中揭露的新產品訊息,預告AI的王者將持續站穩龍頭寶座,主要是其加速AI模型的訓練和推理過程,並推動AI在各個領域的應用,甚至結合軟硬體來組成機器人大軍。其中除了Blackwell架構的B200晶片具有更高的性能和能效比之外,GB200超級晶片更將兩個NVIDIA B200 Tensor Core GPU連接到Grace CPU,這種集成解決方案在處理大型AI模型時,亦能顯著提升性能和效率,顯然輝達新平台的推出代表著算力的巨大提升,將進一步加速AI模型的訓練和推理過程,而晶片作為AI模型訓練的算力基礎,其需求將爆炸性成長。

做為輝達重要合作夥伴的台積電,其總裁魏哲家日前在法說會即特別凸顯AI將是今年台積營運成長的主力,因此即使智慧手機、PC復甦不如預期,在AI強勁需求支撐下,台積今年業績可望逐季成長,全年美元營收將成長21%到26%。其關鍵就在於台積5奈米製程的產能利用率受惠於輝達的AI GPU產品而呈現滿載局面,且輝達2024年高階晶片包括B100、B200、GB200更將採用N4、N4P等製程,等同持續對台積電先進製程的接單帶來支撐效果,同時台積電因先進封裝技壓群雄,使其CoWoS產能明顯供不應求,造成公司需不斷提高該先進封裝產能的規劃,顯然不論是輝達的AI晶片持續稱霸全球,或是有其他競爭者進行挑戰,台積電都是最終贏家。

■SK Hynix異軍突起 掌握新一代HBM絕對優勢

至於SK Hynix,不同於過去在DRAM、NAND Flash總是落後於三星,此次在AI的高頻寬記憶體(HBM)商機中逆勢超越,成為全球主要供應者,並在HBM領域與輝達AI處理器密切合作,於2023年獨家供應輝達HBM3,2024年3月也宣布正式量產且即將供應輝達八層HBM3E,估計SK Hynix在新一代HBM市占率仍可望超過9成。不過,其他對手包括三星、美光(Micron)也積極加入HBM的戰局,例如美光宣布正式量產領先業界的HBM3E解決方案,且Nvidia H200將採用其解決方案,可望於2024年第二季開始出貨;三星的HBM3產品則在2024年首季通過AMD MI300系列驗證,其中包含其八層與12層產品。

整體而言,由於AI繁複大量資訊運算功能推升記憶體用量,HBM與次世代新興記憶體極具市場潛力,特別是HBM在CPU及加速器中增加頻寬,使得運算速度可望增加,可預期2024年下半年HBM記憶體大廠的戰火交鋒將從8層延燒至12層規格。因SK Hynix與輝達的先行合作經驗,預計將為SK Hynix帶來競爭優勢,預料HBM需求激增及產品組合將大幅挹注營運,反觀美光2024年HBM市占率恐仍僅限於個位數。

本院:104 台北市中山區德惠街16-8號
電話:總機 +886 (2) 2586-5000,傳真 +886 (2) 2586-8855 聯絡我們

南台灣專案辦公室:807 高雄市三民區民族一路80號43樓1-2
電話:(07)262-0898,傳真:(07)398-3703

© 2015 台灣經濟研究院 版權所有. 隱私權聲明