經濟日報 App
  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

CoWoS 總產能持續看增 預估2025年增率逾七成

本文共1119字

經濟日報 記者劉芳妙/台北即時報導

根據TrendForce研究,NVIDIA Hopper平台H100今年第1季短缺逐漸紓解,屬同平台的新品H200於第2季後逐漸放量,第3季新平台Blackwell將進入市場,第4季推展到資料中心客戶。但今年應仍以Hopper平台為主,包含H100、H200等產品線;根據供應鏈導入Blackwell平台進度,預計今年第4季才會開始放量,占整體高階GPU比例將低於10%。

TrendForce表示,屬Blackwell平台的B100等,其裸晶尺寸(die size)是既有H100翻倍,估計台積電(2330)2024年CoWos總產能年增來到150%,隨著2025年成為主流後,CoWos產能年增率將達七成,其中,NVIDIA需求占比近半。HBM方面,隨著NVIDIA GPU平台推進,H100主搭載80GB的HBM3,至2025年的B200將達搭載288GB的HBM3e,單顆搭載容量將近3~4倍成長。而據三大原廠目前擴展規劃,2025年HBM生產量預期也將翻倍。

據TrendForce研究,以雲端服務業者(CSP)業者導入現況來看,以Microsoft、Meta、AWS較為積極,預期2025年GB200方案合計出貨量有機會達逾30,000櫃,Google則可能傾向優先擴大自家TPU AI基礎設施。Blackwell平台之所以備受市場期待,主要是有別於HGX或MGX單台AI伺服器,改推整櫃式型態,整合自家CPU、GPU、NVLink及InfiniBand等高速網通技術。

其中,GB200又分為NVL36及NVL72,每櫃分別搭載達36及72顆GPU,而NVL72將為NVIDIA主推組態,但因其設計較為複雜,估計2024年底將以NVL36先導入前期試煉,以求快速進入市場(Time to Market)。

據NVIDIA FY1Q25資料來看,企業客戶、各國主權雲(Sovereign AI)或Tier-2資料中心客群需求也明顯提升。TrendForce表示,受限於2023年CoWoS及HBM供應不及,如NVIDIA優先將其高階GPU提供給大型雲端服務業者(Hyper CSP),以全球高階AI server整體市場來看,2023年CSP合計對AI伺服器的需求量占比約65%。

至2024年上半年隨GPU供貨短缺獲緩解後,今年來自伺服器品牌商如Dell、HPE的需求占比將擴大至19%;其他包含各地區Tier-2資料中心如CoreWeave、Tesla等,或各國主權雲、超算中心專案等,合計需求占比將提高至31%,主因AI訓練或應用過程中,可能涉及具敏感性或資料隱私安全等議題,預期未來此塊市場也將扮演驅動AI伺服器出貨成長的關鍵。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
環球晶下半年營運將優於上半年 法人估全年 EPS 35.5元
下一篇
虎航股東會/獲利可望超越去年 首季每股淨值達11.35元

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!