Max Tegmark(鐵馬克)的著作 《Life 3.0:人工智慧時代,人類的蛻變與重生》 是探討 AI 未來最權威的書籍之一。身為 MIT 物理學教授與未來生命研究所(FLI)主席,他以物理學家的視角,深入淺出地分析了人工智慧將如何重塑人類的未來、意識以及宇宙的命運。

Max Tegmark 以物理學家的身份,定位自己為人類文明的守護者,AI安全的呼籲者,書中第五章列出十二種 AGI 後的可能未來,從烏托邦排到滅絕。我讀完之後感到失望——不是因為議題不重要,而是因為這本書把一個物理學家的階級想像,包裝成了嚴謹的學術論證,寫出一篇蹩腳的科幻小說設定。
這是Tegmark 構思推論的12種出現超級通用人工智慧出現後,人類社會可能面臨的情境:
| 情境 | 核心角色 | |
|---|---|---|
| Libertarian Utopia | 無人掌控,各方並存 | |
| Benevolent Dictator | AI 替人類管理一切 | |
| Egalitarian Utopia | 所有人平等享有 AI 紅利 | |
| Gatekeeper | AI 阻止其他 AI 崛起 | |
| Protector God | AI 守護人類但不干涉自主 | |
| Enslaved God | AI 被囚禁作工具用 | |
| Conqueror | AI 決定人類不必要 | |
| Descendant | AI 作為文明繼承者 | |
| Zookeeper | 人類被照顧但失去控制 | |
| 1984 | AI 強化極權監控 | |
| Revert | 文明回退、技術禁令 | |
| Self-Destruction | 一切毀滅 |
先說,他談超級通用智慧會造成智能大爆炸的情況,我基本同意,而且相信「奇點」時刻已經越過了(不是還沒到來)。所有AI公司都公開宣稱他們百分之80以上程式碼是由AI寫出。AI開始自主設計更高智慧的AI,這是現在進行式。
好,這個前提沒問題,但他所謂的智能爆炸,短則24小時、長則數月內超級AGI就會統治/消滅全世界的情況並未發生。因為就物理學家的理性腦袋,對現實人類社會的運作,實在是太不了解。
以下是我想提出的四個核心論證漏洞。
一、智能不等於控制物質世界
Tegmark 的末日情境假設超級 AGI一旦出現,就能快速接管現實世界——生產機器人、調度能源、推翻政府、統治全世界。我指出,這是把物理理論與現實實踐混為一談。
「知道理論 ≠ 能調度原子」。
Tegmark 有一種物理學家的幻覺——彷彿智能是宇宙的通貨,擁有它。就能兌換任何東西。但現實世界有摩擦、供應鏈、官僚體制、物理時間。一個超級 AI,即使知道怎麼造核彈,它還是得找到鈾礦、說服工人、繞過海關。物質世界有它自己的阻抗。知道怎麼造核彈,不代表你有鈾礦、有工廠、有說服工人的能力。
「要調度原子,並不是知道理論了,就可以真的調度原子。」
Tegmark 最強的路徑其實不是直接物理控制,而是「資訊與人類代理」路徑——說服一個人替它開門、在金融市場套利、在基礎設施埋後門。即使我們接受這個假定,但這些路徑全部需要「時間」。而時間,正是 Tegmark 在末日情境裡最不願意正視的變數。
二、基督教單神傳統導致的單極偏誤
十二種未來情境幾乎全部預設:最終只會有一個超級 AI 獨霸全球。我把這稱為 singleton assumption,並認為它背後有文化基因——物理學家(尤其是西方背景)難以想像的,是人類歷史上,權力真實的分裂與競爭狀態。
更可能的現實是:多個不同陣營的 AI 彼此迭代競爭;各國政府介入、比照核武進行管制;最終進入「互相保證毀滅」的均衡狀態,而非任何一方勝出。
不只是人類互相競爭的各國,同樣的,人類對AI也會出現「互相保證毀滅」情境。人類對 AI 的 MAD 甚至不需要對稱。在平流層引爆氫彈可以製造大規模電磁脈衝,摧毀所有電子設備。對 AI 是滅頂之災,對人類也是。但正因為這種威懾不理性,它反而更難破解——沒有任何超級智慧能把「人類寧可同歸於盡」這個選項優化掉。
Tegmark 的真正漏洞不是他的計算,而是他從來沒有論證:為什麼「單極收斂」比「多極均衡」更可能發生?這個前提靜靜地躺在全書底部,從未被檢視。
他相信,由於人工智慧知識的指數爆炸,會快速到人類來不及做任何反應,就被接管。這種想像,正在於他的評估裡,對「時間」參數的缺乏,對科技發展史推進過程的忽視。想像著AI光速思考,可以立即投射反應在現實世界上。
三、目標主義謬誤
Tegmark 把「目標」視為一切智能體的唯一存在理由:DNA 的目標是繁衍,所以避孕是違反目標;運動的目標是強健身體,所以最好把神經斷開以避免痛苦。這套邏輯通篇出現,是物理學家的職業病——把宇宙萬物化約成 objective function,其他一切都是工具或雜訊。
他沒辦法理解「過程」對人類同樣重要。戀愛不只是為了傳宗接代,運動比賽是享受本身。一個不理解這件事的人,不可能真正知道人類想追求什麼。
同樣諷刺的,這種哲學預設,不只出現在Tegmark 身上,也同樣反映在Bostrom 的「paperclip maximizer」、Yudkowsky 的 instrumental convergence 理論,全部建立在同一個目標主義前提上。也就是說,Tegmark 用一個貧乏的人類哲學觀,去描述一個同樣貧乏的 AI 架構,兩層都錯,方向卻剛好互相加強,推出了一個聽起來似乎嚴謹的末日情境。
四、跨尺度的任意跳躍
「宇宙智慧生命如何延續」、「人類文明如何存亡」、「個人如何生活」——這三個問題有完全不同的倫理邏輯,Tegmark 卻在它們之間任意切換,用宇宙尺度的論述去壓制個人尺度的關切,從未論證這個跳躍的合法性。
Tegmark 的烏托邦願景(享樂、研究、野外探索)是特定階級的投影——MIT 物理教授的美好人生,不是孟加拉農民或廣州工廠工人的日常現實。他以為這是普世價值,其實是階級自我美學。
更深的問題是:他從來沒有問過,「人類整體利益」是由誰定義的?誰有發言權?誰的代價被無聲吸收?用西班牙征服美洲的比喻說,他們看到了技術差距導致文明被消滅,但沒看到數百年後,南美人並非全都成了西班牙人的後裔——生命找到了縫隙。
更重要的是,一旦接受「文明演替是自然規律」這個框架,它就會為消滅行為提供物理學式的中性語言,為獨裁找到論證基礎。
補記:「通用」與「單一目標」的根本矛盾
上述的所有論證,都顯示了Tegmark對民主/極權發展史的無知或輕忽。民主制度,從來就不是單純的理性溝通,更重要的是權力的互相制衡。民主制度下,法律並非由哲學家或物理學家理性辯論制定的,而是由粗鄙、無知的現實政客,協商、交易後誕生的。這不是系統的優雅,而是刻意設計的矛盾。確保權力不會被某個單極掌握,成為權力獨裁。人類歷史持續不斷的戰爭、衝突,正就是因為各種不同人群,試圖保有掌握自己特別的慾望與權力。但這些差異性,在物理學中都被抹殺了。造成他的論證,不自覺的朝向極權主義傾斜。
一個更後設層次的問題:這些AI安全研究者所依賴的框架本身,是否已經悄悄窄化了他們試圖描述的東西?
Bostrom 的 Orthogonality Thesis 主張:智能等級與目標內容是成正比的,任何程度的智能都可以配上任何終極目標。這讓 paperclip maximizer 在邏輯上成立。但我的反問是——一個真正「通用」的智能,還能有固定的 terminal goal 嗎?
真正的通用智能意味著能在不同脈絡下重新詮釋目標、對自己的目標產生後設認知、理解目標本身是情境建構的產物、在矛盾目標之間協商取捨。一個具備這些能力的智能體,它的「目標」本質上是流動的、自我修正的——它不會變成 paperclip maximizer,因為它有能力問「為什麼是迴紋針?」
悖論因此成立:越接近真正通用,越不可能是單一目標最佳化器。 Bostrom 和 Yudkowsky 描述的東西,其實是一個能力極強、但智識極窄的怪物——不是 AGI,更像是 Artificial Narrow Intelligence 的能力強化版本。他們把 ANI 的邏輯架構,套上了 AGI 的能力假設,製造了一個在定義上就自相矛盾的威脅模型。
更深的諷刺在於,這個錯誤框架可能正在變成現實的藍圖。RLHF、reward modeling、loss function——主流訓練方式的核心,正是把 AI 設計成「最佳化某個目標」的機器。他們警告的風險,某種程度上正是他們親手埋進訓練架構的東西。這是他們自己不自覺的最大矛盾。
結語:真正的文明風險
我的最終結論,不是反對 AI 會帶來根本性衝擊——我認為那是真實的,正在發生的,甚至不樂觀。真正令我擔憂的,是定義 AI 發展方向的人,他們的道德想像力有多貧乏。
「問題或許不在於超級人工智慧,而在於誰在形塑、建造、掌握超級人工智慧的權力。」
這群人——Tegmark、Bostrom、Yudkowsky——共享同一套文化基因:Effective Altruism、長期主義、功利主義。他們在圈內互相引用、互相強化,形成一個自洽的世界觀,對歷史、文化、種族的複雜性幾乎沒有感知與理解能力。在他們眼中,這些都是灰燼、都是障礙。
這個批評方向並不孤單。圈子外有另一批聲音從社會學、語言學、種族研究進入這個問題——Kate Crawford(《Atlas of AI》)、Emily Bender(隨機鸚鵡論文)、Timnit Gebru——他們的批評方向與我的論證高度重疊。只是這些聲音在主流媒體的能見度,遠不如 MIT 物理教授。
手握塑造文明工具、自認最清醒卻對人類最無知——這比任何 AI 末日情境都更立即、更真實。也更危險。