AI軍備競賽升溫 今年八大CSP資本支出7100億美元搶GPU與ASIC

伺服器示意圖。(圖:REUTERS/TPG)
伺服器示意圖。(圖:REUTERS/TPG)

研調機構 TrendForce 今 (25) 日公布最新 AI 伺服器產業研究,預計 2026 年八大主要雲端服務供應商 (CSP) 的合計資本支出將超越 7,100 億美元,年增 61%。業者除持續採購輝達 (NVDA-US)、超微 (AMD-US) GPU 外,也擴大導入 ASIC 基礎設施,以確保各項 AI 應用服務的適切性,以及資料中心建置成本效益。

八大 CSP 包含美系 Google、AWS、Meta、Microsoft、Oracle 以及中系的 Tencent、Alibaba、Baidu。

TrendForce 預估,2026 年 Google 母公司 Alphabet 的資本支出有望逾 1783 億美元,年增高達 95%。Google 較其他 CSP 更早投入自研 ASIC,已累積相當研發優勢,預期今年 TPU 主力將轉進至 v8 新平台。

Google 受惠 Google Cloud Platform、Gemini 等 AI 應用帶動 TPU 需求,預估 2026 年 TPU 於 Google AI 伺服器的出貨占比將上升至逼近 78%,擴大與 GPU AI 伺服器的差距。Google 也是各 CSP 中,唯一 ASIC 機種出貨比例高於 GPU 機種的業者。

Amazon 近期則上調對輝達 GB300、V200 整櫃系統的採購規模,反映其加速導入更高功耗與密度的 GPU 平台,以因應雲端 AI 訓練、推理服務擴張,預估 2026 年其 GPU 機種於自家 AI 伺服器占比將達近 60%。自研 ASIC 部分,預計其新一代 Trainium 3 將於 2026 年第二季起放量,系統端因尚需配合軟體成熟度、產品驗證等,出貨動能可能到下半年才較為顯著。

TrendForce 預估 2026 年 Meta 的資本支出將破 1,245 億美元,年增 77%。其 AI 伺服器也以 NVIDIA、AMD 方案為主,估 GPU 機種占比仍將高達 80% 以上;另欲推進自研 ASIC,以降低單位算力成本、分散對單一供應商的依賴,惟據供應鏈評估,其 MTIA 目前仍受軟硬體系統調教耗時等影響,恐面臨實際出貨不如原預期的風險。

Microsoft 看好大模型訓練推理的長期需求,主要購置輝達整櫃解決方案支持其 AI 伺服器出貨。該公司日前並發布自研晶片 Maia 200,鎖定高效率 AI 推理應用。Oracle 則因應 Stargate、Open AI 等擴增 AI 資料中心專案,持續佈建 GPU 整櫃式方案。

分析中系 CSP 動態,儘管 ByteDance 未公開揭露 2026 年資本支出細節,TrendForce 預估一半以上資金將用於採購 AI 晶片相關。NVIDIA H200 可望成為 ByteDance AI server 的一項主要方案,但仍須視後續美國、中國審查情況而定。ByteDance 同時擴大導入本土 AI 晶片,主要採用 Cambricon 等方案。

Tencent 外購 NVIDIA 等 GPU 方案支撐雲端、生成式 AI 需求,也同時與當地業者合作發展 ASIC 自主方案,聚焦網通應用、資料中心基礎架構、線上 AI 應用服務等場景,以分散算力來源並提升系統整合彈性。

Alibaba 和 Baidu 皆積極自研 ASIC AI 晶片。Alibaba 旗下有平頭哥、阿里雲事業等,提供公有雲和其他線上服務的 AI 應用基礎設施,並開發 Qwen(通義)LLM 及 App 應用軟體等,同時面向自用雲端、企業和消費性用戶。Baidu 規劃於 2026 後陸續導入 Kunlun 新方案,鎖定大規模 AI 訓練或 AI 推理應用,並嘗試發展 AI server cluster 超節點天池系列,連結可達數百顆 AI 晶片以強化整體 AI 系統運算能力。


延伸閱讀

相關貼文

prev icon
next icon