美國人工智慧(AI)新創公司 Anthropic 在其 AI 技術供美國軍方使用的安全防護措施爭議中,拒絕了五角大廈提出的最新提案,使雙方對峙在政府設定的最後期限前一天進一步升級。該期限要求公司撤回相關限制,否則將面臨嚴重後果。
根據《彭博》報導,Anthropic 週四發表聲明指出,國防部提出的新合約語言,仍未滿足公司對其 AI 工具軍事用途設立防護措施的要求。該公司堅持兩項關鍵限制:
- 不得將其 AI 技術用於監控美國公民
- 不得在「無人類介入」的情況下,執行自主致命攻擊
Anthropic 表示,儘管最新提案未達標準,但公司仍持續與國防官員協商,並強調致力於與軍方合作。對此,五角大廈發言人尚未立即回應。
這場爭議的焦點,在於 Anthropic 要求其 Claude AI 工具在軍事應用時必須附帶使用限制,但美國國防部認為這些條件並無必要。
國防官員此前已拒絕相關要求,並強調必須能在不受 Anthropic 額外限制的情況下使用 Claude。Claude 是目前少數獲准處理機密雲端工作的 AI 工具之一。
若 Anthropic 不撤回上述條件,美國國防部已揚言將其列為「供應鏈風險」,此舉將使該公司無法再與其他國防承包商合作。
此外,五角大廈甚至威脅動用冷戰時期制定的《國防生產法》(Defense Production Act),在公司反對的情況下強制使用其軟體。
Anthropic 執行長 Dario Amodei 週四表示,公司仍致力於與軍方合作,但希望國防部重新考慮僅與願意接受「所有合法用途」標準的承包商合作的立場。
他在聲明中強調:「這些威脅不會改變我們的立場:我們無法在良知上同意他們的要求。」
AI 軍備競賽升溫
目前估值約 380 億美元的 Anthropic,是首家獲得五角大廈核准處理機密資料的 AI 公司,其 Claude Gov 工具因操作簡便,迅速成為國防人員青睞的選項。
然而,該公司正面臨日益激烈的競爭。由特斯拉、SpaceX 執行長馬斯克創立的 xAI,近日也獲准承接機密工作;同時,OpenAI 以及 Google(GOOGL-US) 旗下的 Gemini 亦為強勁對手。
Anthropic 發言人透露,國防部最新提出的合約條款雖被描述為「折衷方案」,但其中法律措辭可能使公司對監控與自主武器的兩項防護措施形同虛設。
Amodei 表示,Anthropic 理解最終軍事決策權屬於國防部,而非私人企業。他強調,公司提出的兩項限制並非試圖制定政策,而是為確保仍處於發展初期、且偶有錯誤的 AI 技術,不會被用於超出其能力範圍的場景。
美國五角大廈推動「AI 優先」戰略
這場爭端爆發於五角大廈公布全新 AI 戰略僅數週之後。該戰略呼籲透過加強對尖端 AI 模型的實驗運用,並減少使用上的官僚障礙,將軍隊打造為一支「AI 優先」的部隊。
該方針並特別敦促國防部選擇「不受使用政策限制、且不會妨礙合法軍事應用」的模型。
國防官員重申,軍方將在法律範圍內使用 Anthropic 的技術。五角大廈發言人 Sean Parnell 週四稍早也表示,國防部無意進行大規模監控,亦不打算開發「在沒有任何人類參與下運作的自主武器」。
Parnell 隨後在社群平台 X 上發文強調:「我們不會讓任何公司決定我們如何做出作戰決策。」他並指出,對方必須在 美東時間週五下午 5 點 01 分(台灣時間為 週六上午 6:01 AM)前作出決定,否則將終止與 Anthropic 的合作關係,並將其列為供應鏈風險。
(本文不開放合作夥伴轉載)
