綜合外媒周四 (9 日) 報導,英特爾 (INTC-US) 與 Google(GOOGL-US)宣布擴大合作關係,雙方將加深在人工智慧 (AI) 資料中心領域的布局,Google 承諾未來將持續採用多世代 Xeon 處理器,並共同開發客製化基礎設施處理器 (IPU),凸顯中央處理器(CPU) 在 AI 運算中的角色正再度升溫。
根據聲明,Google 將在其 AI 資料中心持續部署英特爾 Xeon 處理器,包括最新的 Xeon 6 系列,用於支援 AI 模型訓練與推論等多元工作負載。雙方並將擴大 IPU 的共同開發,該類晶片可負責網路、儲存與資安等任務,減輕 CPU 負擔,提升整體系統效率。
分析指出,隨著 AI 應用從訓練階段轉向實際部署,市場對通用型運算能力的需求快速增加。尤其在「代理型 AI」(Agentic AI) 興起後,運算需求變得更加複雜,進一步推升 CPU 在 AI 基礎架構中的重要性。儘管輝達 (NVDA-US)GPU 仍主導 AI 運算,但 CPU 正被視為協調整體系統運作的關鍵角色。
Google 表示,英特爾長期為其重要合作夥伴,Xeon 產品藍圖可滿足日益提升的效能與效率需求。雙方強調,未來 AI 系統設計將朝向「平衡架構」發展,結合 CPU、IPU 與加速器,以提升資源利用率並降低系統複雜度。
對英特爾而言,此次合作為其重振資料中心業務的重要一步。過去數年,英特爾在 AI 浪潮初期面臨市占流失,受到超微 (AMD-US) 與大型科技公司自研晶片的競爭壓力。隨著 CPU 需求回升,英特爾有望重新爭取更多 AI 基礎建設支出。
此外,英特爾近期亦積極拓展 AI 版圖,包括參與馬斯克主導的 Terafab AI 晶片計畫,並計畫回購其愛爾蘭晶圓廠股權,以強化製造能力。市場分析認為,若 CPU 在 AI 架構中的角色持續提升,將有助於英特爾改善財務結構並吸引新客戶。
儘管 Google 同時發展自家 AI 加速器 TPU 與自研 CPU(Axion),並採用安謀 (ARM-US) 架構,但持續與英特爾深入合作,顯示在 AI 基礎建設快速擴張下,多元晶片策略仍是主流方向。隨著 AI 運算需求升級,CPU、GPU 與專用晶片的分工將更加明確,並共同支撐下一階段 AI 競賽。
