撰文/魏茂國
GAI 熱潮不斷,人性化的各式應用,讓它深入人們生活中,並引發科技產業的創新與變革。臺灣位居全球科技供應鏈重要地位,工研院積極投入研發相關技術,迎合各項設備精進與應用需求,為臺灣科技島的實力再添一關鍵影響力。
自 2022 年 ChatGPT 推出以來,生成式人工智慧(GAI)熱潮快速襲捲各個產業,不只讓每個人感覺到與 AI 更接近,是在生活中舉手投足就可使用的工具,更為產業界引發一連串的創新與變革。
尤其為了因應 GAI 所需的算力,最為相關的資訊科技產業也積極投入研發,以能迎合各項設備精進與應用需求。工研院電子與光電系統研究所所長張世杰表示,在 GAI 的發展之下,臺廠的商機也隨之提升,像是半導體的製造與封裝,以及伺服器代工等,都已在全球供應鏈中占有主要地位,如 CoWoS 先進封裝製程,與此同時,臺廠也應該掌握 GAI 帶來的機會,持續增加影響力。
AI 算力需求提升 各項技術持續突破
在 GAI 的帶領下,技術層面的突破成為創造市場優勢的關鍵,也是工研院積極投入研發的方向。張世杰以晶片設計為例,在 GAI 的運算過程中,原有部分是由中央處理器(CPU)來處理,但這也因為需要搬移資料,使得整體運算速度減慢;因此目前在設計上,就有改以晶片內的硬體,來取代 CPU 運算的方式,也是許多研發機構競爭之處。
這也反映出,既然 AI 的運算需要不斷搬移資料,顯見記憶體的效能就相當重要,更使得高頻寬記憶體(High Bandwidth Memory;HBM)成為炙手可熱的零組件,可藉由封裝技術來堆疊多層的 DRAM,達到降低體積、增加儲存空間等效果,例如輝達(NVIDIA)在 AI 運算平台 HGX H200 上,就是使用高階的 HBM3e。
不過,張世杰也提到,HBM 的製程較複雜且成本高,對臺廠來說負擔並不小。因此目前國內也有多家廠商與工研院合作開發新技術,利用 Wafer on Wafer 的方式來堆疊邏輯運算與記憶體等部分,除了在製程上較 HBM 簡單,比如採用 DDR1 的製程技術,效能已可超過 DDR5,價格更是低廉許多,也適合 AI 從雲端到邊緣端的高記憶體需求。
同樣在手機等邊緣裝置的記憶體上,由於目前採用的嵌入式快閃記憶體(Embedded Flash;eFlash),在製程上已難自 28 奈米後再微縮,也使得工研院已投入數十年研發的磁阻式隨機存取記憶體(Magnetoresistive Random Access Memory;MRAM)成為愈來愈熱門的產品,不僅體積更小、效能表現更好,甚至還具備抗高溫和低溫等特性。
張世杰指出,隨著 AI 應用愈來愈多元,如 AI 電腦、AI 手機等邊緣端的裝置也愈來愈多;可是在這些裝置上運行的 AI 系統,除了必須具有一定的算力,AI 運算的模型也有限制,既不能損失太多精確度,資料量也不能太複雜。因此相對來說,這時就需要和雲端 AI 系統不同的技術,也成為臺廠切入的機會。
好比在記憶體需求增加下,由工研院與台積電合作開發的自旋軌道轉矩磁性記憶體(Spin Orbit Torque MRAM;SOT-MRAM),就具有高速度且低功耗的優點,目前讀取時間(Access Time)更達世界第一的 0.4 奈秒(nanosecond),這類產品就將會是未來各種邊緣裝置記憶體的重要選項。
AI 運算凸顯散熱問題 創新方案適時助力
當 AI 算力持續推進、伺服器效能不斷提升之下,需要面對的還有電源傳輸與散熱問題。比如伺服器的電源,通常就要從機房外的幾萬伏特,到進入伺服器內的數百伏特,再到晶片時僅剩幾伏特,這當中要如何控制、傳導電源,就是個相當複雜的問題。
還有伺服器的散熱問題,預估到明年(2025),光是 3 公分見方的晶片,熱量將會高達 1,000 瓦,是目前所有規格的散熱產品無法負荷。因此工研院也與國內多家散熱廠商合作,利用奈米技術研發蒸氣導板(Vapor Ground Plane;VGP),以水吸收晶片的熱量後,透過奈米結構的毛細作用把水引導至散熱板表面,以水蒸氣的形式將熱量快速排出,並經散熱凝結成水後,再回到下方重複吸熱。
轉載自《工業技術與資訊》月刊第 384 期 2024 年 5 月號,未經授權不得轉載。
張世杰表示,目前這項技術經過測試後,已可有效處理 1,000 瓦以上的熱量,幫助將伺服器晶片的熱量順利排出,也將有助於更多 AI 的運算與應用。