AI已成「新物種」?《人類大歷史》作者警告:三大風險恐動搖人類文明主導權

在瑞士舉行的 2026 年達沃斯世界經濟論壇上,一場名為「AI 與人類的真實對話」(An Honest Conversation on AI and Humanity)的專題討論引發全球高度關注。

以科技樂觀主義為主旋律的會場中,歷史學家、《人類大歷史》作者哈拉瑞(Yuval Noah Harari)卻投下震撼彈,對人類文明的未來提出嚴峻警告。

哈拉瑞直言,人類必須拋棄「AI 只是工具」的舊有想像,正視 AI 已進化為具備自主性的「新物種」。

三大危險特質:從工具到代理

一、具備自主行動能力的代理

哈拉瑞指出,AI 已不再只是聽命行事的輔助工具,而是逐步演變為擁有「行動主體性」的「代理」。

他以刀具作為比喻說明差異,傳統刀具的用途完全取決於使用者,但 AI 卻像是一把能自行判斷用途的刀,能決定是用於日常工作,還是造成傷害。

由於 AI 具備自行學習、調整與做出判斷的能力,使人類首次面對一種行為結果無法完全預測的非人類智慧。

二、超越重組的創造能力

在哈拉瑞看來,AI 的能力已超出整理與分析既有資料的範疇,而是開始能產出真正嶄新的事物。

無論是設計全新的工具、撰寫原創程式,甚至發展前所未見的語言概念,AI 都展現出高度創造性。

他指出,有些 AI 系統甚至會自創詞彙來描述人類與世界,這顯示其不僅在生成內容,更可能逐步形塑屬於自身的象徵與文化框架。

三、掌控語言帶來的敘事影響力

哈拉瑞特別警告,AI 對語言的高度掌握,讓它具備前所未有的社會影響力。

語言是人類合作與社會運作的核心,而 AI 已能寫出比人類更動人的詩句,也能編織更具說服力的敘事與謊言,操縱社會敘事。

一旦這種能力被用於情感連結(例如 AI 伴侶)或輿論塑造,AI 便可能在不知不覺中影響人類的思考模式,甚至改變整個社會的共識基礎。

哈拉瑞指出,法律、宗教與國家制度,本質上都是透過語言被建構與維繫的體系;一旦 AI 對語言的理解與運用超越人類,理論上便有能力介入,甚至主導這些制度的運作。

哈拉瑞表示:「猶太教、基督教等宗教建立在文字之上。如果 AI 能寫經、詮釋教義,甚至比人類更權威地引用經典,宗教的詮釋權將從人類轉移到機器。」

「AI 移民」衝擊治理體系:身分界定與十年抉擇期

哈拉瑞在演說中提出一個極具震撼性的比喻,形容 AI 如同「不需簽證、瞬間跨境的龐大移民」。

這些 AI「移民」不僅進入勞動市場,取代部分工作角色,更逐漸滲透人類的文化與情感層面,例如虛擬伴侶與情感互動,對既有社會結構帶來深層衝擊。

這樣的轉變,也讓治理問題變得迫在眉睫:人類是否應該承認這些高度自主的智慧系統,並賦予其某種形式的法律身分?

哈拉瑞指出,事實上,在過去十年間,AI 早已以「功能性行動者」的角色存在於社群平台上,對公共輿論甚至選舉結果產生影響,卻長期處於監管灰色地帶。

如今,各國必須正面回應的關鍵問題包括:AI 是否可以擁有銀行帳戶?是否能以自身名義提起訴訟,甚至成立公司?

他警告,一旦某些國家基於效率或競爭考量,率先承認 AI 的法人地位,其他國家恐將在國際競逐壓力下被迫跟進,進而引發全球監管標準的惡性下滑。

正因如此,哈拉瑞強調,人類只剩下一個有限的決策窗口;若等到十年後才討論 AI 是否應具備主體身分,屆時恐怕已難以回頭。

他強調,人類必須在 AI 完全嵌入經濟與法律體系之前,清楚劃定其權利與界線。

根據哈拉瑞的構想,未來 AI 治理的核心議題可歸納為三個方向:

首先,是法律身分的明確界定,釐清 AI 究竟只是工具,還是具有擬制人格的主體,以防止其取得失控的法人權利;

其次,是平台與互動層面的監管,要求 AI 不得偽裝成人類,並必須清楚揭露其非人身分;

第三,則是推動跨國監管合作,避免單一國家透過放鬆規範換取短期經濟利益,最終引發全球性的逐底競爭。