高盛承認對AI「預測失準」!呼籲做多雲端、低配半導體
高盛 (GS-US) 研究主管 James Covello 於 2024 年 6 月曾以一篇「生成式 AI:花太多,賺太少?」引發市場廣泛討論。時隔近兩年,他親自承認「看錯了」,並在 2026 年 4 月發布的最新長篇研報中公開修正立場。
然而,這份認錯並不徹底。高盛坦承在消費者採用速度與超大規模雲端業者資本支出韌性上的預測失準,但在企業端投資回報率(ROI)低迷,以及半導體利潤高度集中的不可持續性這兩大核心觀點上,反而持有「比以往更強的確信度」。
研報指出,生成式 AI 在問世後三年內滲透率已達約 53%,遠超個人電腦與早期網際網路的普及軌跡。儘管 95% 的 GPT 每週活躍用戶使用的是免費版本,消費端的熱情仍獲得充分驗證。
雲端業者的表現同樣出乎高盛意料。高盛原本預期,若股價持續落後大盤,業者將削減 AI 資本支出。
然而,現實卻是,在「錯失恐懼」(FOMO)的驅動下,各大雲端業者不僅未曾縮手,反而大幅加碼,導致經營現金流幾近耗盡,並開始舉債填補缺口。數據顯示,2025 年資料中心相關債券發行量較前一年翻倍,達到 1,820 億美元。
然而,企業端的回報卻令人失望。麻省理工學院研究報告顯示,企業在生成式 AI 上投入了 300 億至 400 億美元,但多達 95% 的組織回報率為零。
安永的調查更顯示,99% 的受訪企業回報了與 AI 相關的財務損失,平均每家損失達 440 萬美元。
不過,高盛也直指當前 AI 產業鏈的核心矛盾:獲利幾乎全數流向半導體業者,雲端業者與模型公司卻在舉債度日。
自 ChatGPT 3.5 問世以來,輝達 (NVDA-US) 淨利成長高達 25 倍;反觀微軟 (MSFT-US) 、Google(GOOGL-US) 、亞馬遜 (AMZN-US) 與 Meta(META-US) ,獲利增幅相形之下平淡許多。
高盛強調,歷史上半導體業的繁榮向來建立在下游客戶獲利的基礎之上,但當前的 AI 週期卻是例外,半導體供應鏈正在犧牲整條產業鏈其他所有人的利益,創造史無前例的利潤集中。
研報稱:「這既史無前例,也不可持續。」最終不是產業鏈頂端的企業開始從 AI 中獲取真正的經濟價值,就是他們將被迫縮減對底層晶片的採購支出。
高盛認為,破解企業端 ROI 困局的關鍵,不在於規模更大的語言模型,而在於針對特定任務訓練的小語言模型(SLM),以及新興的「資料結構與工作流程編排層」。
研報舉例,雲端監控業者 Datadog 以內部資料訓練的 SLM,因具備領域專業,能以更低成本提供更高準確率。某供應鏈企業在轉向專用 SLM 後,回應延遲降低 47%,成本減少 50%。
編排層的缺失則是另一大問題。企業若以高成本大模型處理低價值的例行查詢,等同於資源錯置。
高盛認為,建立智慧路由機制,依任務複雜度分配適當模型,將是控制 AI 預算失控的關鍵。
投資策略:做多雲端、低配半導體
基於上述分析,高盛提出明確的相對價值交易策略:做多超大規模雲端業者,低配半導體。
理由在於,市場已充分反映半導體業者的高利潤預期,但雲端業者因 ROI 疑慮,估值倍數遭到大幅壓縮。無論後續如何演變,這個部位都具備不對稱的獲利潛力:
若企業端 ROI 轉正,市場對雲端資本支出的疑慮將獲解除,雲端業者估值倍數大幅修復,半導體因預期已充分計價而漲幅落後;若企業端 ROI 持續低迷,雲端業者削減資本支出,股價將因現金流前景改善而迎來反彈,半導體則將因收入預期受挫遭到重擊。
高盛坦言唯一的風險情境,是雲端業者無視 ROI 繼續瘋狂擴張,半導體持續吸血全產業鏈。
不過,研報認為,市場回歸理性的前兩種情境,發生概率正在顯著上升。
研報以一句網際網路時代的歷史隱喻作結:「先行者中箭,後來者得地。」Uber 正是建立在一批先行者的破產資產之上,但這距離網路泡沫破滅已整整過了 20 年。
高盛建議企業高層拒絕 FOMO 情緒的裹挾,在尚未理清自身資料基礎前,不要急於構建 AI 應用。越來越多的證據顯示,自建 AI 系統的隱性成本遠超預期,「購買」成熟平台服務正逐漸取代「自建」,成為更具成本效益的主流選擇。