超微發表MI300系列AI新品 看好市場規模四年內突破4000億美元

超微 (AMD-US) 周三 (6 日) 推出新一代人工智慧 (AI) 晶片,瞄準由輝達 (NVDA-US) 主導的市場,執行長蘇姿丰也對 AI 晶片市場做出驚人預測,預估未來四年市場規模將攀升至逾 4000 億美元,是 8 月預測值的兩倍以上。

超微周三於聖荷西舉行「Advancing AI」活動,宣布推出 MI300 系列的兩款 AI 資料中心晶片,一款是專注於生成式 AI 應用的 MI300X,另一款則是面向超級運算的 MI300A。

超微表示,用於生成式 AI 的 MI300X 採用可提高效能的先進高頻寬記憶體 (HBM),共擁有超過 1500 億個電晶體,儲存容量是輝達 H100 的 2.4 倍。蘇姿丰指出,這款晶片在訓練 AI 軟體的能力方面,與輝達的 H100 相當,在推論 (inference) 方面的表現甚至更好。

超微預測,到了 2027 年,AI 資料中心晶片市場規模將突破 4000 億美元,遠高於公司 8 月時預測的 1500 億美元。超微表示,到 2024 年,資料中心 GPU 收入將突破 20 億美元,分析師預估該公司總銷售額將達到約 265 億美元。

超微周三收盤下跌 1.32% 至每股 116.82 美元,截稿前,盤後股價小漲 0.36%。今年迄今累計漲幅達 80%。

超微愈來愈有信心,MI300 系列能夠獲得科技巨頭的青睞,帶動數十億美元的企業支出。該公司表示,包含微軟 (MSFT-US)、甲骨文 (ORCL-US) 還有 Meta(META-US) 在內等公司都將採用這款晶片。

周三活動上,Meta、OpenAI 和微軟均承諾使用超微最新一代 AI 晶片 Instinct MI300X,顯示輝達 AI GPU 的昂貴售價,正促使科技公司尋找其他替代選項。若超微的新一代高階晶片足以滿足科技公司和雲端服務供應商建構 AI 模型的需求,將有助於壓低 AI 模型的開發成本,從而對輝達的晶片銷售帶來競爭壓力。

Meta 表示將使用 Instinct MI300X GPU 來處理 AI 推論作業負載,例如處理 AI 貼紙、影像編輯和操作輔助等,微軟 Azure Web 和甲骨文旗下雲端服務都將採用 MI300X。OpenAI 的 GPU 語言程式 Triton 也將支援超微的 GPU。

蘇姿丰並稱,公司已改善開放軟體平台 ROCm,以便和輝達的 CUDA 技術平台競爭。