本文共1313字
輝達(Nvidia)2023年發布的H100晶片輕輕鬆鬆改變了整個產業。這顆資料中心等級的AI加速晶片為Nvidia增加了逾1兆美元的價值,使其一夜之間晉升AI領域的領頭羊。它讓投資人看到,圍繞生成式AI的討論熱潮能轉化為實際營收。H100的需求之大,以至於部分客戶要等上六個月才收得到貨。
1. 什麼是H100?
H100是一款功能強大的GPU,通常用在個人電腦,以協助遊戲玩家獲得逼真的視覺體驗,但優化後可高速處理大量數據和運算,非常適合要訓練AI模型的高能耗任務。1993年成立的Nvidia是這塊市場的先驅,相關投資可追溯至近20年前,Nvidia押注,平行運算能力終將讓它的晶片在遊戲以外的應用大顯身手。
2. H100為何特別?
生成式AI平台能利用大量已存在資料接受訓練,學習翻譯、歸納總結和合成圖像等能力。看愈多就愈厲害,但這個過程會消耗大量運算能力。Nvidia說,訓練大型語言模型(LLM),H100比前一代A100快四倍,回覆用戶提示快30倍,此一優勢對想訓練LLM執行新任務的公司至關重要。
3. Nvidia如何成為市場領導者?
Nvidia最強大的GPU擁有數百顆核心,能同時處理多項運算工作,模擬陰影和反射等複雜的物理現象。Nvidia工程師在2000年代初意識到,可重新設計和調整繪圖加速器,作法是將任務分割為小片段再並行處理,而AI研究人員十年前發現,使用這種晶片,他們的工作終於變得實際可行。
4. Nvidia有競爭對手?
在亞馬遜AWS、Alphabet的Google Cloud,以及微軟的Azure營運的AI資料中心,Nvidia控制大約加速器市場的80%。迄今為止,這些公司打造自研晶片的努力,以及超微(AMD)和英特爾(Intel)推出的競爭性產品,給AI加速器市場留下的印記都不深。
5. Nvidia如何維持領先?
Nvidia更新產品(包括支援硬體的軟體)的速度之快,其他公司望塵莫及,它還設計各種叢集系統,協助客戶大量採購並快速部署H100。英特爾Xeon處理器等晶片能進行較複雜的數據運算,但擁有的核心較少,在處理常用來訓練AI軟體的大量訊息時速度慢得多。Nvidia資料中心事業部去年第4季的營收入增加81%到220億美元。
6. 超微和英特爾能與Nvidia一拚?
超微去年6月推出Instinct系列的MI300X晶片,執行長蘇姿丰說,MI300X有更多記憶體,能處理生成式AI的工作負載。她12月表示,「現仍處於AI生命周期非常初期的階段」。英特爾針對AI工作負載推出特定晶片,但承認市場目前對資料中心GPU的需求,增速快於處理器的需求,後者是英特爾強項。Nvidia的優勢不僅硬體性能而已,該公司還發明CUDA語言,可撰寫程式讓演算法透過GPU加速。
7. Nvidia下一步會發布什麼產品?
今年稍晚,H100將交棒給H200,然後Nvidia要對設計進行更實質性的修改,推出B100。執行長黃仁勳試圖說服各國政府和民營企業儘早採購,否則可能落後於擁抱AI的對手。Nvidia知道,如果客戶選擇了它的技術用於生成式AI計畫,它會更容易推銷升級產品,想拉走用戶的競爭對手就比較辛苦。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言