A100仍然搶手 新款L40S成輝達解決缺貨問題的祕密武器

曾經主導 GPU 的遊戲與加密貨幣市場,在上周輝達 (NVDA-US) 財報上極少被提及,因為人工智慧主導了有關增長動力和新產品的敘述。為此,他們已經推出全新的 L40S GPU,旨在超越高端 H100 GPU 的橫向擴展人工智慧推理工作負載。

正如輝達執行長黃仁勛所強調,世界正在向加速計算和以人工智慧為中心的平台轉變。超過 1 兆美元的數據中心基礎設施將朝這個方向轉變,輝達認為,其在加速計算和生成人工智慧能力方面的領先優勢將推動其多年的增長。

輝達的 A100 和 H100 仍是搶手貨

在此之前,輝達的 A100 和 H100 GPU 是眾科技巨頭的必爭之地。例如,微軟 (MSFT-US) 日前示警,如果數據中心無法取得足夠的 GPU 晶片,將可能使得雲服務中斷。

根據調研機構分析,如果要從頭訓練大數據模型至少需要上千張 A100 或 H100,而推理和微調大數據模型至少需要儲存 100 張。這當中還不包含騰訊 (00700-HK)、阿里巴巴 (BABA-US)、字節跳動、百度 (BIDU-US) 等,因為美國出口管制限制,而要採購的 A100 和 H100 的替代產品 A800 與 H800。

在這片戰場上,AMD(AMD-US) 完全無法抗衡,即使已推出 MI 300,也無法有突破表現。

外媒報導,輝達 GPU 的生產瓶頸在台積電的 CoWoS 後端封裝技術,其次還有高頻寬記憶體 HBM 的供給受限。

黃仁勳稱 L40S 不缺貨

因此,輝達在上月宣布新款 GPU 產品 L40S 問世,這是 L40 的升級版,L40S 從原先單純影像處理型 AI 晶片切入生成式 AI 領域。更具體的說,L40S 不但是一款專業影像處理 GPU,同時也支援新一代數據中心工作負載,可執行生成式 AI 和大型語言模型 LLM 推理與訓練。

更關鍵是,L40S 沒有整合 HBM 記憶體,也不需要 CoWoS 封裝技術,且價格相較 A100、H100 更低,業界認為新款的 L40S 是輝達用來紓解當下 GPU 缺貨潮的秘密武器。

對此,黃仁勳在財報會議上指出,L40 系列 GPU 包括最新推出的 L40S 是針對不同應用而設計的產品,H100 主要是針對大規模語言模型 LLM 設計,在 LLM 領域, L40S 是無法取代 H100 GPU。

報導稱,L40S 有一個很大的重點,是能微調預先訓練好的模型,且它採用標準機架、標準伺服器,一切都是標準的所以很容易安裝。更重要的是, L40S 不受合作供應限制(不用 CoWoS 封裝),正在向全球服務企業發貨。

業界認為,L40S GPU 主要目標客戶是中小型企業的演算法訓練,而大型雲端服務商 CSP 為了要強化算力儲備,仍會以 H100 和 A100 GPU 為主。因此,L40S GPU 的推出不會減少既有客戶對既有 H100 和 A100 GPU 的需求,但 L40S GPU 卻可以為輝達補足中小型企業客戶對於 AI 的渴望。