北美四大CSP業者高階AI伺服器需求比重達6成 搭載輝達GPU占大宗

伺服器示意圖。(圖:REUTERS/TPG)
伺服器示意圖。(圖:REUTERS/TPG)

研調機構 TrendForce 今 (27) 日預估,2024 年美系四大雲端服務業者 (CSP)Microsoft、Google、AWS、Meta 的高階 AI 伺服器 (包含搭載輝達、超微或其他高階 ASIC 晶片等) 占全球需求分別達 20.2%、16.6%、16% 及 10.8%,合計將超過 6 成,居全球領先,其中又以搭載輝達 (NVDA-US) GPU 的 AI 伺服器機種占大宗。

研調指出,輝達近期營收來源以資料中心為關鍵,主因 GPU 伺服器占整體 AI 市場比重高達 6 至 7 成,後續仍須留意三大狀況。

輝達恐受美國禁令箝制

第一,輝達恐受美國禁令箝制,中國政府將更致力於 AI 晶片自主化,尤其華為仍被輝達視為可敬對手,而輝達因應禁令推出的 H20 等中國特規方案,性價比可能不及既有的 H100 或 H800 等,中國客戶採用度可能較先前保守,進一步影響輝達市占率。

美系 CSP 業者擴大自研 ASIC

第二,在規模及成本考量下,美系大型 CSP 業者除 Google、AWS 外,Microsoft、Meta 等也有逐年擴大採自研 ASIC 趨勢。第三,來自超微的同業競爭,超微採高性價比策略,提供僅輝達 60-70% 的價格對標同級品,甚至代表性或具規模客戶以更低價策略方式搶進市場,預期 2024 年尤以 Microsoft 為最積極採納超微高階 GPU MI300 方案業者。

輝達因應客戶加速拓展多元產品線

輝達在面臨潛在隱憂下,更積極加速拓展其多元產品線,以因應不同客戶群。2024 年起將正式汰換 A100 產品,而以價格更高的 H100 系列為主軸。除 H100,預估自今年第二季末開始小量出貨搭載更高 HBM3e 規格的 H200 產品。

另外,輝達未來在價格上將更積極採差別訂價,H100 採部分折價策略,H200 應維持約 H100 原價格水位,以提供更高性價比方式,穩固雲端 CSP 客戶,同時輝達將採用 NRE 模式,與 Meta、Google、AWS 及 OpenAI 等廠商展開洽談,並將目標擴及電信、車用及電競客戶。

此外,輝達預期在 2024 年下半年將推出新一代 B100 產品,相較 H 系列可望在效能上又有所提升,在 HBM 記憶體容量將高出 H200 約 35-40%,以因應更高效能 HPC 或加速 LLM AI 訓練需求。

輝達在中低階產品上,除 L40S 針對企業客戶做邊緣端較小型 AI 模型訓練或 AI 推論外,也規劃以 L4 取代既有 T4,作為雲端或邊緣 AI 推論應用。

值得注意的是,為避免 2023 年 GPU 供應不足問題,輝達也積極參與 CoWoS 及 HBM 等擴建產能需求,預期今年第二季在相關原廠產能逐步開出後,原交付周期平均約 40 週也將減半,逐步去除下游供應鏈因 GPU 短缺而使 AI 伺服器供應進度受阻問題。


延伸閱讀

相關貼文

prev icon
next icon