搶輝達明年HBM採購權重 記憶體三大原廠Q1完成HBM3e驗證

AI晶片示意圖 (圖:ShutterStock)
AI晶片示意圖 (圖:ShutterStock)

據研調機構 TrendForce 最新高頻寬記憶體 (以下簡稱 HBM) 研究顯示,為更妥善且健全的供應鏈管理,NVIDIA 規劃加入更多 HBM 供應商,而 DRAM 三大原廠供應商則預計 2024 年第一季可完成 NVIDIA 的 HBM3e 驗證,各原廠的驗證結果,將決定 NVIDIA 2024 年在 HBM 供應商的採購權重分配。

由於 HBM 驗證過程繁瑣,三大原廠美光 (Micron)、SK 海力士 (SK hynix)、三星(Samsung) 依序於今年 7 月、8 月、10 月提供 HBM3e 8hi(24GB) 樣品予 NVIDIA 驗證,預計耗時兩個季度,因此,TrendForce 預期,最快今年底可望取得部分廠商 HBM3e 驗證結果。

觀察目前各 AI 晶片供應商開案進度,NVIDIA 2023 年的高階 AI 晶片 (採用 HBM) 的既有產品為 A100/A800 及 H100/H800;2024 年則將把產品組合更細緻化的分類。除原上述型號外,更將推出使用 6 顆 HBM3e 的 H200 以及 8 顆 HBM3e 的 B100,並同步整合 NVIDIA 自家基於 Arm 架構的 CPU 與 GPU,推出 GH200 及 GB200。

相比同期的 AMD 與 Intel 產品規劃,AMD 2024 年出貨主流為 MI300 系列,採用 HBM3,下一代 MI350 將採用 HBM3e,預計 2024 下半年開始進行 HBM 驗證,實際看到較明顯的產品放量時間預估應為 2025 年第一季。

以 Intel Habana 來看,2022 下半年推出的 Gaudi 2 採用 6 顆 HBM2e,2024 年中預期在新型號 Gaudi 3 持續採用 HBM2e,用量升級至 8 顆。因此,TrendForce 認為,NVIDIA 在 HBM 規格、產品準備度及時間軸上,可望持續以較新的 GPU 規格,在 AI 晶片競局取得領先。


延伸閱讀

相關貼文

prev icon
next icon