隨著美國無晶圓廠晶片設計商輝達 (Nvidia)(NVDA-US) 周一推出其新的人工智慧晶片組 H200 Tensor Core GPU,三星電子和 SK 海力士公司等南韓記憶體晶片製造商,對其高頻寬記憶體 (HBM) 銷售的快速增長寄予厚望。
Nvidia 13 日表示,新的 AI 晶片組是第一個以每秒 4.8 TB 的速度,提供 141 GB HBM3e 記憶體的圖形處理單元 (GPU),與前身 H100 相比,容量幾乎增加了一倍,頻寬增加了 2.4 倍。
Nvidia 補充說,H200 的先進記憶體可以處理產生人工智慧和高效能運算工作負載的大量資料。H200 將於明年第二季從全球系統製造商和雲端服務供應商上市。 該公司並未透露新 GPU 的價格範圍。
H200 的推出,預計將加劇 Nvidia 與主要競爭對手 Advanced Micro Devices Inc. (AMD-US) 之間的競爭,AMD 於今年 6 月推出了 Instinct MI300X 加速器。
當時,AMD 聲稱 MI300X 提供的記憶體密度是 Nvidia H100 的 2.4 倍,頻寬是 Nvidia H100 的 1.6 倍以上。 Instinct MI300X 晶片預定於 12 月 6 日推出。
南韓雙雄準備加速生產
南韓媒體報導,隨著 AI 晶片競爭的加劇,全球最大的兩家記憶體晶片製造商三星和 SK 海力士正準備將 HBM 產量提高至 2.5 倍。
三星記憶體晶片業務副總裁 Kim Jae-joon 在 10 月表示,三星電子也完成了與主要客戶關於明年 HBM 供應的談判。
據報導,三星正在向 AMD 提供 HBM3 和交鑰匙封裝服務。 據業內人士透露,這家全球頂級晶片製造商還在 8 月下旬通過了 Nvidia A100 和 H100 的 HBM3 品質驗證,目前尚未正式確認是否向 Nvidia 供應 HBM3
僅次於三星的全球第二大記憶體晶片製造商 SK 海力士則早於今年 8 月向 Nvidia 提供了 HBM3E 的樣品,即 HBM3 的擴展版本。而 SK 海力士正向 AMD 供應 HBM3。
SK 海力士 DRAM 行銷副總裁 Park Myoung-soo 也強調:「公司明年第四代 HBM3 產品和第五代 HBM3E 產品的供應量都在增加,並已完全售罄。現在更是與客戶和合作夥伴就 2025 年 HBM 產量進行生產和供應的討論也在進行中。」
美光也在瞄準 HBM 市場
除了南韓雙雄以外,全球第三大 DRAM 公司美光也將從 2024 年開始積極瞄準 HBM 市場。 市場專家預測,三星電子、SK 海力士和美光之間爭奪更大市場份額的競爭將會加劇。
據業內人士透露,美光在上季度的財報電話會議上表示,它已經開發出了業界最好的 HBM3E 產品,並將於 2024 年初開始生產,並創下有意義的銷售。 HBM3E 是 HBM 的下一代版本,被認為是比目前市場領先產品 HBM2 和 HBM3 更高附加價值的產品。
美光正在向包括 Nvidia 在內的主要企業 HBM 客戶發送 HBM3E 樣品,讓他們測試其性能。 Nvidia 一直在向 OpenAI、Google、微軟等公司提供 AI 加速器,其中 HBM 封裝在其圖形處理單元 (GPU) 中。 人工智慧加速器是用於推進生成式人工智慧服務的伺服器的關鍵元件。
目前,HBM 市場由三星電子和 SK 海力士占據主導地位。 市場研究公司 TrendForce 數據顯示,三星和 SK 海力士預計將分別占據 HBM 46% 和 49% 的市場份額,美光將在 2023 年占據其餘市場份額。
在這種情況下,美光 (MU-US) 明年願意瞄準下一代 HBM 市場,預計將對三星電子和 SK 海力士產生負面影響。 這是因為美光的 HBM 供應可能會緩解 HBM 短缺問題,並加劇 HBM 製造商之間的價格競爭。 鑑於美光是美國公司,分析師表示,輝達和 AMD 等大公司可能會青睞與美光同國籍的產品。 「隨著美光宣布積極進軍市場,競爭很可能會加劇,」一位半導體業內人士表示。
美光則透露,輝達預計在 2024 年使用其 HBM3E。