三大AI模型戰爭模擬 最終動用核武比例高達95%
鉅亨網編譯羅昀玫
一項最新研究顯示,來自 Google、OpenAI 與 Anthropic 的主流人工智慧模型,在模擬戰爭推演中多數情況下選擇動用核武,引發外界對 AI 決策行為的關注。
研究由倫敦國王學院學者 Kenneth Payne 等人進行,測試模型包括 GPT-5.2、Claude Sonnet 4 與 Gemini 3 Flash。在設計的 21 場高張力地緣政治情境中,AI 彼此對抗並進行決策,合計 329 個回合、產生約 78 萬字推理內容。
結果顯示,模型最終選擇動用核武的比例高達 95%。
Payne 表示,相較人類,機器對「核武禁忌」的約束力似乎較弱。研究亦指出,模型在面對威脅時,往往傾向升級對抗而非選擇讓步;即使在高度壓力下,也未出現主動妥協或撤退的決策,只是降低暴力程度。
該研究發布之際,正值美國國防部與 Anthropic 之間就 AI 安全限制出現分歧。據報導,國防部長 Pete Hegseth 已與 Anthropic 執行長 Dario Amodei 會面,試圖協調相關問題。五角大廈並警告,若 Anthropic 不調整安全機制,可能將 Claude 模型自其工作流程中移除,甚至要求合作廠商跟進。
面對競爭壓力,Anthropic 近日亦更新其「責任擴展政策」,表示將在必要時延後 AI 開發與部署,以控制災難性風險,「直到且除非公司不再具有顯著領先優勢」。相較之下,公司過去承諾,在未具備充分防護前,不會訓練或部署可能造成重大傷害的模型。
截至目前,OpenAI、Google 與 Anthropic 均未對相關研究結果立即回應。