打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出
bell icon
notice-title img

當 AI 造假成本趨近於零、AI 犯罪如影隨形,法律發展能否趕上科技?

【 AI 社會新挑戰】專題報導,解析 AI 時代的機會與威脅!



不再顯示
notice-title img

當 AI 造假成本趨近於零、AI 犯罪如影隨形,法律發展能否趕上科技?

【 AI 社會新挑戰】專題報導,解析 AI 時代的機會與威脅!



不再顯示

受美禁令影響 研調認為 NVIDIA 後續發展有三挑戰

本文共1298字

經濟日報 記者楊伶雯/台北即時報導

根據TrendForce最新預估,以2024年全球主要雲端服務業者(CSP)對高階 AI 伺服器(包含搭載 NVIDIA、AMD或其他高階 ASIC 晶片等)需求量觀察,預估美系四大 CSP 業者包括 Microsoft、Google、AWS、Meta 各家占全球需求比重分別達20.2%、16.6%、16%及10.8%,合計將超過6成,居全球領先位置;其中,又以搭載 NVIDIA GPU 的 AI 伺服器機種占大宗;不過,NVIDIA 後續仍須留意三大狀況。

NVIDIA 近期整體營收來源以資料中心業務為關鍵,主因其 GPU 伺服器占整體 AI 市場比重高達6~7成,惟後續仍須留意三大狀況,可能使 NVIDIA 發展受限。一是受美國禁令箝制,中國政府將更致力於 AI 晶片自主化,進一步來說,華為仍被 NVIDIA 視為可敬的對手。NVIDIA 因應禁令推出的 H20等中國特規方案,性價比可能不及既有的H100 或 H800 等,中國客戶採用度可能較先前保守,進一步影響 NVIDIA 市占率。

二是在具規模及成本考量下,美系大型 CSP 業者除 Google、AWS外,Microsoft、Meta 等亦有逐年擴大採自研ASIC 趨勢;第三則是來自 AMD 的同業競爭,AMD 採高性價比策略,對標 NVIDIA 同級品,AMD 提供僅60~70%價格,甚至代表性或具規模客戶能以更低價策略方式搶進市場,預期2024年尤以 Microsoft 為最積極採納 AMD 高階 GPU MI300 方案業者。

NVIDIA 在面臨潛在隱憂下,更積極加速拓展其多元產品線,以因應不同客戶群。2024年起將正式汰換 A100 產品,以價格更高的 H100 系列為主軸。除 H100,預估自今年第2季末開始小量出貨搭載更高 HBM3e 規格的 H200產品。

另外,預估 NVIDIA 未來在價格上將更積極採差別訂價,H100 採部分折價策略,H200 應維持約 H100 原價格水位,以提供更高性價比方式,穩固雲端 CSP 客戶。除此之外,NVIDIA 將採用 NRE(Non-recurring engineering Expense)模式,與 Meta、Google、AWS 及 OpenAI 等廠商展開洽談,並將目標擴及電信、車用及電競客戶。

此外,預期 NVIDIA 自2024年下半將推出新一代 B100 產品,相較H系列可望在效能上又有所提升,在 HBM 記憶體容量將高出 H200 約35~40%,以因應更高效能 HPC 或加速 LLM AI 訓練需求。在中低階產品上,除 L40S 針對企業客戶做邊緣端較小型 AI 模型訓練或 AI 推論外,另亦規劃以 L4 取代既有 T4,作為雲端或邊緣 AI 推論應用。

值得注意的是,為避免2023年 GPU 供應不足問題,NVIDIA 也積極參與 CoWoS 及 HBM 等擴建產能需求,預期今年第2季在相關原廠產能逐步開出後,原交付 Lead Time 平均約40週也將減半,逐步去除下游供應鏈因 GPU 短缺而使 AI 伺服器供應進度受阻問題。

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
企業生日快樂/中租數位優化 徵信力更精準
下一篇
長照機構明年掀掛牌潮 200家等待進入資本市場

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!