為什麼美國和中國不能各有一個 AI 天才國度?Anthropic CEO 的時間表和他的恐懼
「為什麼美國和中國不能各有一個天才國度?」
Dwarkesh Patel 在最新一集 podcast 中,對 Anthropic 執行長(CEO)Dario Amodei 丟出了這個直球。Amodei 沉思了一下,然後給出了一個讓人不太舒服的答案:技術上完全做得到,但戰略上不該讓它發生。
這場超過兩小時的深度訪談,涵蓋了 AI 擴展假說、實驗室商業模式、監管政策、到美中競爭的完整光譜,但最核心的部分,是 Amodei 以一個打造 AI 前沿模型的公司創辦人身分,直接闡述為什麼他認為「資料中心裡的天才國度」(Country of Geniuses in a Data Center)一旦落入威權政府手中,可能比核武更危險。
這篇文章將深入解析 Amodei 的地緣政治框架,以及支撐這個框架的商業邏輯。相關的訪談連結和逐字稿我放文末。
什麼是「資料中心裡的天才國度」?
先搞清楚 Amodei 在說什麼。他用「Country of Geniuses in a Data Center」來描述一個即將到來的狀態:AI 模型的智力水準等同於一整個國家的頂尖人才,全部塞進一座資料中心裡運作。不只會寫程式碼、做數學,還能設定技術方向、理解問題的脈絡、做出需要判斷力的決策。
這聽起來像科幻,但 Amodei 給出的時間表非常具體。他對 10 年內達成抱持 90% 的信心,「這幾乎是你能有的最大確定性了,因為世界太不可預測。」而他自己的直覺是 1 到 3 年,雖然他承認這部分比較接近「50/50 的預感」。
他原話是這樣的:「如果你的公司有天才國度,我們會知道的。華盛頓的人會知道,在座每個人都會知道。我們現在還沒有,這一點很清楚。」
但正在快速逼近。Amodei 用 Anthropic 的營收曲線來佐證:2023 年從零到 1 億美元,2024 年 1 億到 10 億,2025 年 10 億到 90 至 100 億。每年 10 倍。「今年一月又增加了好幾十億的營收,」他補充道,語氣像在陳述天氣預報,「你會以為這條指數曲線該放慢了,但它沒有。」
技術端也在同步加速。Amodei 維持他從 2017 年就提出的「大一統算力假說」(Big Blob of Compute Hypothesis):不需要什麼突破性的新方法,只要持續擴展算力、數據、和目標函數就夠了。預訓練(Pre-training)的 Scaling Laws 仍然有效,而現在強化學習(RL)也出現了同樣的對數線性擴展。指數曲線沒有減速的跡象。
比核武更危險的均勢
理解了「天才國度」的概念和時間表之後,Amodei 的地緣政治憂慮就有了具體的錨點。
他的核心論述:核武嚇阻是穩定的均勢,AI 不是。核武之所以「有效」(如果這個詞適用的話),是因為雙方都確切知道後果,互相保證毀滅,沒有人會認為自己能在核戰中「贏」。但 AI 領域完全不同。如果兩個超級智慧 AI 系統對抗,誰會贏?沒有人知道。
Amodei 指出,衝突最容易發生在「雙方都認為自己有 90% 勝率」的時候。「雙方不可能都對,但雙方都可以這樣認為。」這種認知落差製造不穩定,而不穩定在 AI 能力指數級成長的情境下格外危險。
他還提出了「攻擊優勢」(Offense Dominant)的世界觀:在一個足夠先進的 AI 系統面前,另一方的所有電腦系統可能都是透明的。網路攻擊、生物恐怖主義、自主武器,這些威脅不再是「可能會發生」的層級,而是「一旦有人做到就無法收回」的層級。
Amodei 在他的長文《技術的青春期》(The Adolescence of Technology)中詳細闡述過這些風險,他在裡面寫道:如果我們有一百年可以慢慢調適,我們會適應的,但問題是這一切發生得太快了。這次訪談等於是把那篇文章的地緣政治章節,用對話的形式重新拆解了一遍。
出口管制:「反對的理由很可疑」
基於上述憂慮,Amodei 在訪談中明確表態:支持對中國維持晶片出口管制。
他毫不掩飾立場:「反對出口管制的論點,我會客氣地說,很可疑(fishy)。」他認為那些主張「不應限制對中國出口晶片」的說法,更多是被商業利益驅動,而非基於安全分析。但他也承認現實的殘酷:「出口管制符合美國國家安全利益,幾乎國會兩黨都支持,道理很明確。然而管制一直被削弱,因為有太多錢押在上面,那些錢會想辦法找到出路。」
Dwarkesh 從另一個角度挑戰他:你限制晶片出口,但你願意把 AI 發現的新藥賣給威權國家?這難道不矛盾嗎?
Amodei 的回答顯示了他試圖劃出的界線:技術成果和基礎設施能力完全是兩回事。「我們不該在中國建資料中心,但在非洲建?我覺得很好,前提是不要由中國擁有。」你可以把 AI 發現的新藥賣給任何人,但讓威權政府擁有等同於一整個國家天才的 AI 基礎設施?那是完全不同量級的風險。
他甚至直接點名:資料中心和晶片不能賣,但疾病的治療方法可以。AI 產業本身的控制權不能擴散,但 AI 帶來的成果應該讓所有人受惠。這條線劃得清楚,但能不能守住,是另一回事。
猜錯一年就破產:AI 實驗室的恐怖算術
Amodei 的地緣政治主張要有說服力,前提是他說的「天才國度」真的會來。而支撐這個信念的,是一套讓人頭皮發麻的商業算術。
Dwarkesh 在訪談中直接挑戰:如果你真的相信 1 到 3 年內會出現天才國度,為什麼不砸更多錢買算力?合理的做法應該是把每一分錢都押進去才對。
Amodei 的回答揭露了 AI 產業最核心的商業困境。
先看規模。整個產業今年的算力大約 10 到 15 百萬瓩(GW),明年翻三倍到 30 至 40 百萬瓩,2028 年可能達到 100 百萬瓩,2029 年 300 百萬瓩。每百萬瓩每年成本約 100 到 150 億美元。乘起來,整個產業在 2028 到 2029 年會花到數兆美元,規模已經跟 Dwarkesh 預期的差不多了。
但這裡有一個致命的時間差:你必須在營收到來之前一到兩年就決定要買多少算力。Amodei 算了一筆帳:假設你相信營收會從每年 100 億成長到 1 兆,所以你提前簽了五年的算力合約。但如果實際營收是 8000 億而非 1 兆呢?「地球上沒有任何力量,沒有任何對沖工具,能阻止你破產。」猜錯一年的時間差,就足以讓整間公司消失。
這解釋了為什麼 Anthropic 雖然在瘋狂成長,卻仍然「負責任地花錢」。Amodei 暗示:有些競爭對手在 YOLO,「就是覺得很酷就砸了」,連試算表都沒認真寫過。
他還揭露了一個反直覺的事實:AI 實驗室的盈虧跟做得好不好沒什麼關係,完全取決於需求預測準不準。每個模型本身都是賺錢的,大約 50% 算力用於推論、50% 用於訓練,而推論的毛利率超過 50%。如果你每年都精準預測需求,你每年都會盈利。但因為你同時在花 10 倍的錢訓練下一代模型,帳面上永遠是虧的。「每個模型都賺錢,但公司整體虧錢。」
Amodei 認為這個產業最終會穩定在 3 到 4 家寡頭的結構,類似雲端產業。進入門檻太高,差異化也夠強,「大家都知道 Claude 跟 GPT 跟 Gemini 擅長的事情不一樣,而且差異比你想的更細微」,所以不會變成零利潤的完全競爭市場。
一個有趣的佐證是 Claude Code 的故事。最初只是 Anthropic 內部的程式碼工具,Amodei 看到內部使用率飆升後決定對外發布,結果成為程式碼代理市場的領先者。「這就是為什麼我們推出了程式碼工具,而不是製藥公司,」他笑著說,「我的背景雖然是生物學,但我們手上沒有做藥的資源。」
獨裁政體在 AGI 時代能存活嗎?
訪談最具爭議性的段落,出現在 Amodei 討論威權政體的未來。
他在《技術的青春期》中寫過一句引發廣泛討論的話:「威權政體根本不是人們在強大 AI 之後的世界能接受的政府形式。」Dwarkesh 追問:這是否意味著你認為中共不應該在 AGI 時代繼續存在?
Amodei 稍微退了一步,解釋那段話是在「探索一種更激進的可能性」,他個人的主張較為溫和:民主國家聯盟應該在「制定規則」的談判中握有更強的牌。「我不是在說某一個國家應該宣布自己說了算,但在 AI 改變世界秩序的關鍵時刻,我希望較接近人道價值的一方有更多籌碼。」
他用歷史類比來闡述邏輯:封建制度因為工業化而消亡,沒有人發動戰爭推翻它,它只是在新技術體系下變得不可運作了。AGI 有沒有可能對獨裁政體產生同樣的效果?
Dwarkesh 立刻反駁:社群媒體剛出現時也有人這麼說,結果威權政府反而學會用它來加強監控。
Amodei 承認「非常不可預測」,但他提出了一個引人深思的假設:「能不能給威權國家的每個人一個 AI 模型,幫他們抵抗監控?能不能建立一種均衡,讓威權政府即便想維持權力,也無法阻止人民使用 AI 帶來的好處?」
他沒有假裝自己有答案。他坦承社群媒體的前車之鑑讓人謙卑,但他認為 AI 是不同的技術,值得再試一次。「我們得先認清問題,然後想出十個方法去嘗試,看哪些有效、哪些沒效,然後繼續迭代。」
監管的兩難:蠢法律 vs 真威脅
AI 地緣政治不只存在於國與國之間,也存在於美國內部的法規角力。
Amodei 在訪談中直接把田納西州一項法案稱為「蠢」。該法案要求禁止 AI 提供情緒支持,包括開放式對話。「這顯然是由完全不了解 AI 能做什麼和不能做什麼的立法者寫的。他們就覺得 AI 提供情緒支持聽起來很可怕,所以就禁了。」
但弔詭的是,Anthropic 卻反對聯邦政府暫停所有州級 AI 法律 10 年。Amodei 解釋:那項提案只說「州政府不能管」,卻沒有提出任何聯邦層級的替代方案。「考慮到我在《技術的青春期》裡描述的那些嚴重威脅,十年等於永恆。」
他真正支持的模式是:聯邦統一標準,各州不能偏離。先從透明度要求開始,等威脅更明確了再針對性加強。他甚至說,今年稍後就可能需要針對 AI 生物恐怖主義的威脅立法。
但他更擔心的,其實不是那些蠢法律。「在已開發國家,市場運作得很好,當有大量利潤可圖時,監管體系其實很難真正擋住它。」
他真正擔心的是 FDA 的藥物審批流程。AI 即將大幅加速新藥發現的速度,而現有的審批管道根本處理不了那樣的吞吐量。「那套體系是為了那些勉強有效、副作用嚴重的藥物設計的,未來的藥物可能效果極佳、安全性極清楚,但它們還是得走同樣的流程。」
更讓他擔憂的是發展中國家。「先進國家會沒事的,真正的問題是發展中國家會不會被拋在後面。」他主張在非洲建資料中心、在開發中國家培育 AI 驅動的生技新創,讓成長從內部產生,而不是依賴已開發國家的施捨。
誰先到,誰就有更多籌碼
回到 Dwarkesh 最初的問題:為什麼不能各有一個天才國度?
Amodei 的完整答案是一個關於「初始條件」的論述。他認為 AI 的指數成長會持續,所有國家最終都會擁有某種程度的 AI 能力。但在指數曲線上,會有某些「關鍵節點」,比如取得攻擊性網路主導權,或破解現有核嚇阻的穩定性。哪個國家或聯盟率先通過這些節點,就會在「後 AI 世界秩序」的談判中佔據優勢。
「我不知道這個關鍵時刻是什麼,也不知道是不是只有一個關鍵時刻,」他說,「但我相信會有一個窗口。在那個窗口裡,AI 從國家安全的角度,給先到者帶來巨大的優勢。」
他的主張比許多人想像的溫和,重點在於民主國家聯盟需要在那個窗口到來之前做好準備。用他自己的話說,是「讓較接近人道價值的一方握有更強的牌」。但他也承認,另一方會持續追趕,而且有些極端手段既不可行也不道德,「談判永遠存在,你永遠不可能完全控制局面。」
Amodei 在整場兩小時的訪談中只提到台灣一次。在列舉「什麼事可能阻斷 AI 指數曲線」時,他把「台灣被入侵、晶圓廠被飛彈摧毀」當作其中一個情境帶過,沒有展開,語氣像在列清單。
但這是我們自己的分析:把他這場訪談的論述串起來,台灣讀者很難當旁觀者。他主張晶片出口管制是整個攻防線的核心,而台積電生產全球最先進的 AI 晶片,管制能不能撐住,直接取決於這些晶片的供應鏈安全。他口中那個「天才國度」能不能建成,有很大一部分取決於台灣。
Amodei 沒有把台灣當作訪談的重點,但他的論述拼在一起,台灣就在那張拼圖的正中央。這個結論不需要他替你說出口。
相關資料:
Dwarkesh Patel Podcast:Dario Amodei — "We are near the end of the exponential"
https://www.youtube.com/watch?v=n1E9IZfvGMA
訪談逐字稿:
https://www.dwarkesh.com/p/dario-amodei-2
Dario Amodei:The Adolescence of Technology
https://darioamodei.com/the-adolescence-of-technology
Dario Amodei:Machines of Loving Grace
https://darioamodei.com/machines-of-loving-grace