本文共803字
科技新聞網站The Information引述知情人士報導,字節跳動和台積電(2330)合作,希望自家設計兩款用於人工智慧(AI)的晶片能在2026年量產,如此可以在開發和運作AI模型上減少輝達(NVIDIA)晶片的依賴。
字節跳動計劃向台積電採購數十萬顆自家設計的訓練和推理晶片。據The Information估算,這一批自家設計的晶片成本會比向輝達購買晶片便宜數十億美元。但晶片仍處於設計階段,字節跳動的計畫也可能改變。
知情人士向 The Information透露,字節跳動的晶片採5奈米製程,只比台積電先進製程落後一代。輝達即將推出的旗艦AI晶片「Blackwell」也採用5奈米。
據報導,字節跳動設計的晶片符合美國對大陸出口管制的規定,配合這些規範是字節跳動能和台積電合作的先決條件。不過,由於美國政府可能會每年更新規定,因此這些晶片未來仍有可能違反相關規定。
對字節跳動來說,降低晶片成本最為重要。字節跳動像其他大型大陸科技公司一樣,推出自家大型語言模型供內部使用和銷售。不過,由於競爭激烈,騰訊、阿里巴巴和百度紛紛將自家模型的使用價格大砍多達97%。
字節跳動去年發表頭一款AI聊天機器人「豆包」,提供類似OpenAI的ChatGPT的文本和圖像生成AI功能。今年,字節跳動宣布一套低成本的大型語言模型,其中有的定價比OpenAI的對應產品便宜多達99%。目前無法在大陸使用 OpenAI。
The Information 報導,字節跳動在開發生成式AI模型的支出不斷增加,據說今年採購超過20萬顆輝達H20晶片,這是美國出口管制下允許出售給大陸的最先進輝達晶片。這筆訂單耗資超過20億美元,尚未完全交貨。
H20的效能約為輝達H100的四分之一,H100則是輝達2022年推出最先進的晶片。由於單顆H20的運算效能較差,大陸業者需要購買更多的H20晶片才能建立相同運算能力的叢集,也因此增加了成本。
※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容
留言