Anthropic與Google簽署2000億美元天價合約 力求突破輝達壟斷
在生成式 AI 競爭進入白熱化之際,矽谷新創巨頭 Anthropic 近期與 Google(GOOGL-US) 達成了一項史無前例的合作協議。據報導,Anthropic 已承諾在未來 5 年內向 Google Cloud 支付約 2,000 億美元,用於採購高達 5GW 規模的 Tensor Processing Unit (TPU) 算力及相關雲端服務。
這項交易不僅是 AI 產業史上最大的單一基礎設施訂單之一,更象徵著 AI 算力重心正從通用的 GPU 轉向客製化的 ASIC 晶片。
5 座核電站級別的算力需求
這項合約的規模極其驚人。所謂的 5GW(吉瓦) 算力容量,大約相當於 5 座大型核電站滿負荷運轉的耗電量。為了支撐這一需求,Google 預計將建設數座超大規模數據中心,並填滿由其自研、博通 (AVGO-US) 協作設計的 TPU 晶片。
對 Google 而言,這筆交易具有重大財務意義,單一合約即占其最新披露之雲端業務訂單積壓額 (Backlog) 的 40% 以上。
性價比與效率的豪賭
Anthropic 此舉背後的核心戰略是為了擺脫對輝達 (NVDA-US)GPU 及 CUDA 生態系統的絕對依賴。長期以來,輝達壟斷了 AI 晶片市場,導致模型廠商利潤大部分流向硬體商,且受限於其供應配額。
轉向 TPU 路線為 Anthropic 帶來了顯著的成本優勢。數據顯示,在大型 Transformer 模型訓練中,TPU v6e 的性價比約為同代輝達 GPU 的 3 到 4 倍。此外,客製化晶片路線已使 Anthropic 的推理基礎設施毛利率從 38% 提升至 70% 以上。透過與 Google 深度綁定,Anthropic 試圖以硬體的確定性換取模型迭代的速度與成本護城河。
多元算力架構
儘管與 Google 簽下天價合約,Anthropic 並未將雞蛋放在同一個籃子裡。該公司目前採取 「TPU 訓練主力 + Amazon Trainium 備份訓練 + GPU 推理補位」 的混合架構。例如,在簽署 Google 合約的同一天,Anthropic 也租下了 SpaceX Colossus 1 超級計算機中超過 22 萬顆輝達 GPU 用於推理任務。
然而,部分業內人士指出,長期綁定 TPU 意味著未來的模型開發必須高度適配 Google 的硬體節奏,一旦合約到期,遷移至其他架構的技術與運維成本將高得令人難以承受。