打開 App

  • 會員中心
  • 訂閱管理
  • 常見問題
  • 登出

資料中心在台灣3/散熱問題頭大 台廠布局液冷、浸沒冷卻技術走了多遠?

鴻海與輝達將在高雄軟體園區建置以超級晶片GB200伺服器為核心的先進算力中心。左為輝達創辦人黃仁勳,右為鴻海董事長劉揚偉。 美聯社
鴻海與輝達將在高雄軟體園區建置以超級晶片GB200伺服器為核心的先進算力中心。左為輝達創辦人黃仁勳,右為鴻海董事長劉揚偉。 美聯社

本文共1910字

經濟日報 記者徐珮君/台北報導

經濟VIP文章限時開放

AI熱潮席捲全球,隨著生成式AI應用需要更大的運算能力,散熱問題已成為資料中心和伺服器晶片的痛點。9月初,台積電(2330)前董事長劉德音在行政院經濟發展委員會首次顧問會議上,點名資料庫產業是「台灣天上掉下來的禮物」,也強調冷卻技術是重要的環節,「若能持續在冷卻方法上研究,就能做到讓世界非靠台灣不可。」

其實,在劉德音之前,輝達(NVIDIA)執行長黃仁勳也多次在公開演講時提到,「液態冷卻散熱技術將為資料中心和 AI 伺服器帶來更好的性能、更少的基礎設施,以及更低的營運成本。」輝達最近推出的GB200機櫃,也要求必須使用液冷式散熱。

鴻海旗下鴻佰展示輝達GB200伺服器。 鴻海/提供
鴻海旗下鴻佰展示輝達GB200伺服器。 鴻海/提供

資料中心齊聚台灣 散熱是關鍵

根據國際管理顧問公司麥肯錫(McKinsey&Company)調查,資料中心巨額的用電量,其中40%就是用於冷卻散熱;由於氣冷式散熱技術已無法滿足AI算力提升的散熱需求,麥肯錫指出,若使用液冷或更先進的技術,用電占比降到10%甚至更低,都是有可能的情況。

令人好奇的是,當台灣在AI產業鏈已取得全球關鍵地位時,下一步,在散熱冷卻技術上有突破的機會嗎?

工研院產科國際所分析師葉逸萱分析,過去資料中心都是以CPU為主,搭配GPU做運算,現在運用AI越來越多,主機就以GPU運算為主,GPU的佔比越來越多,算力就會比較高,伴隨產生的熱能也越多,過去都是搭配風扇或冷氣的氣冷式散熱,現在很多業者開始開發液冷式散熱技術。

資策會產業分析師陳奕伶指出,台灣散熱大廠奇鋐(3017)、雙鴻(3324)等業者從提供3D VC(Vapor Chamber)氣冷散熱模組,也往液冷散熱方向走,而且有些廠商可和鴻海(2317)、緯創(3231)這些大廠搭配,可以提供散熱零組件,透過上下游之間的串聯和配合,大廠帶小廠,這也是台廠研發液冷散熱技術的優勢。

另一方面,工研院在研發冷卻散熱技術上,也扮演領頭羊的角色。工研院電光系統研究所組長王欽宏表示,不同於過去資料中心的運作,現在生成式AI進行運算或決策,必須在很短時間,同時有很多GPU協助大語言模型(LLM)運算,因此,當電晶體運作時,電子會有很大的熱量產生,例如在8公分×8公分大小的晶片運算和存取資料,就會有1kW(瓩)熱量。

台廠布局 同步散熱降低能源

「我們要解決的第一個挑戰,是把熱量從晶片表面端移走,才有辦法把熱量斷掉,要不然就會變成像燜燒鍋一樣,溫度超過100度、200度,就停止運轉。」王欽宏解釋,所有的考量,就是讓晶片維持在100度至90度以下的操作溫度,而且無時無刻都必須從晶片表面把1kW的熱量移走,這樣晶片才能持續運轉。

第二個挑戰則是從系統端降溫冷卻,降低能耗。王欽宏說,現在氣冷式技術,做到伺服器750W的散熱已是極限,我們運用熱傳導真空均熱片(Vapor Chamber Lid;VC Lid)的原理架構,以極高效的熱擴散元件,貼合模組中的AI晶片,透過真空的蒸汽腔體,進行晶片內的水量蒸發與冷凝,達到快速傳熱與大量移除熱量的效果。

王欽宏強調,工研院研發的浸沒式散熱整合方案,已和一銓精密、奇陽科技、哈伯精密等業者建構冷卻原料、散熱設備等上中下游一條龍的產業鏈,目前可以做到晶片1.2kW的散熱,預期2到3年後可以提升到1.5kW散熱,並加速製造台灣大尺寸熱傳導真空均熱片的量產,解決高效能運算帶來的散熱瓶頸,打造更節能的AI技術。

陳奕伶說,GPU是AI算力的關鍵,有更強的散熱,才能支持更強的GPU發展,工研院研發的浸沒式散熱技術,提供超過1kW以上的晶片的散熱。台灣持續與美國超微(AMD)等國際大廠合作,也可提升散熱研發能力。

葉逸萱表示,工研院研發的浸沒式散熱整合方案,正協助台灣業者導入,搶攻國際千億產值的AI伺服器散熱市場,未來相關的應用也會逐漸上升,預估可達到20%的成長速度。

此外,陳奕伶也說,儘管國際已有廠商推出浸沒式冷卻散熱相關技術,但還是非常少量,主要原因是,浸沒式散熱的機放設計成本很高,除了機櫃體積很大,重量超過一公噸以上,機房還要夠大足以容納浸沒槽,並且樓地板承重量還要達標才行。

陳奕伶強調,如果是既有的氣冷式資料中心改為浸沒式散熱,有技術上的困難,而且後續建置成本很高,價格昂貴。不過,面對未來AI伺服器越來越多,要有效處理GPU高速運算帶來的熱量,液冷和浸沒式散熱,仍是必然的趨勢。

延伸閱讀 》

資料庫產業在台灣1/接住天上掉下來的AI禮物 台灣有何能耐?

資料庫產業在台灣2/外商資料中心強制散熱?提升台灣AI算力的4關鍵

※ 歡迎用「轉貼」或「分享」的方式轉傳文章連結;未經授權,請勿複製轉貼文章內容

延伸閱讀

上一篇
氫能車上路行不行3/專吃灰氫減碳力不如電動車?為何專家說它才是未來交通的夢幻逸品
下一篇
中國式寬鬆2/A股彈起 大陸經濟要起死回生了?

相關

熱門

看更多

看更多

留言

完成

成功收藏,前往會員中心查看!