本文共708字
Meta於美國時間10日宣布,推出第二代「MTIA」自研AI晶片,主打算力與記憶體頻寬較前一代倍增,未來將擴大導入旗下資料中心。Meta持續投資AI基礎建設,並強化導入自研晶片,法人看好將帶動其AI伺服器代工夥伴廣達(2382)、緯穎(6669)出貨引擎熱轉,坐享Meta強攻AI帶來的龐大商機。
Meta第一代自研AI加速器晶片MTIA(MTIA v1)採台積電7奈米製程,第二代晶片則採台積電5奈米製程生產。第二代MTIA運算能力和記憶體頻寬,都比去年推出的第一代晶片高出一倍多,就Meta評估的四個關鍵模型中,下一代MTIA效能甚至較第一代提升三倍。
MTIA執行的模型主要用於處理AI推薦系統相關工作,協助臉書和Instagram上的內容排行及推薦。目前下一代MTIA已投入16個資料中心區域使用,Meta將把這些晶片部署於能放置多達72顆MTIA晶片的機櫃系統。
Meta目前伺服器主要代工廠為廣達、緯穎,其中廣達占比約五成,緯穎為三成。隨著Meta擴大導入自研晶片,廣達為Meta主力代工廠,營運受惠大。緯穎來自Meta的營收占比超過五成,為公司最大客戶,兩家協力代工廠可望一同衝刺AI伺服器出貨動能,大啖Meta AI商機。
Meta強調,新一代MTIA晶片代主要用補充運算資源。執行長祖克柏曾說,今年將大舉採購輝達在市面上的主流高階H100 AI晶片,預計買35萬顆。因此MTIA晶片將不是用來取代輝達晶片,而是扮演補強角色。
Meta去年10月宣布,計劃支出350億美元,建置AI資料中心、硬體等基礎建設,這些基礎建設支出多數仍可能投入輝達晶片。
延伸閱讀
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言