人工智慧狂飆時代的安全煞車!微軟AI主管科學家首提「威脅即停」鐵律
微軟消費人工智慧主管 Mustafa Suleyman 周四 (11 日) 公開承諾,若其主導開發的超級智慧系統對人類構成潛在威脅,將立即終止研發進程。
這位曾參與創立谷歌 DeepMind 的科技高層強調,微軟正致力於打造「與人類利益完全契合」的 AI 技術,並認為這種主動設置安全紅線的立場在當前行業中具有開創性意義。
Suleyman 做出最新表態之際,適逢微軟近期在 AI 領域進行戰略升級。去年 10 月,微軟與 OpenAI 達成新協議,打破了先前對自身開發通用人工智慧 (AGI) 的限制條款,獲得獨立研發超級智慧系統的權利。
Suleyman 透露,微軟為此付出了長期投入,不僅為 OpenAI 建造專用資料中心,更放棄了對 AGI 技術的優先開發權。現今隨著合作模式調整,微軟得以聯合軟銀、甲骨文等企業擴大算力基礎設施,正式開啟自主超級智慧研發。
上月,Suleyman 主導成立 MAI 超級智慧團隊,明確將科技應用聚焦於醫療診斷、教育優化等實際場景,而非追求抽象概念化的超級智慧,首期目標是在醫療診斷領域實現超越人類專家的精準判斷,同時提升臨床決策中的規劃與預測能力。此舉被視為微軟應對 AI 倫理爭議的重要舉措,Suleyman 特別強調道:「我們不會不計成本、無限制地推進超級智能開發。」
儘管微軟高調佈局,目前技術仍存明顯侷限。Suleyman 坦言,類似 Copilot 的消費級 AI 助理尚未達到理想狀態,其智慧代理功能仍需持續優化。他舉例稱,當 AI 真正發揮效能時「堪稱神奇」,但目前距滿足企業與消費者的高階需求仍有差距。
值得關注的是,微軟透過收購 Inflection AI、引進谷歌及 Anthropic 模型等方式,正逐步降低對單一合作夥伴的依賴,目前仍持有 OpenAI 約 1350 億美元的重組股權。
這場關乎未來的 AI 競賽,正在技術創新與倫理約束的平衡中展開。