Anthropic 事件:你贊成 AI 公司老闆有關掉武器的權力嗎?
1945 年 10 月,曼哈頓計畫結束兩個月後,原子彈之父歐本海默走進白宮面見杜魯門總統。他對杜魯門說了一句話:「總統先生,我覺得我的雙手沾滿了鮮血。」
杜魯門的反應不是同情。他事後對國務次卿 Dean Acheson 說:「他手上沾了血?該死,他手上的血連我的一半都沒有。你不會到處跑來跑去為這件事哭哭啼啼。我再也不想在辦公室裡見到那個混蛋。」
杜魯門的邏輯很清楚,造出武器的人是科學家,決定使用武器的人是總統,道德責任在做決策的人身上,不在造工具的人身上。
80 年後,2026 年 2 月 27 日,Anthropic 因為拒絕戰爭部的無限制使用要求被列為「供應鏈國家安全風險」。同一天,全球估值最高的 AI 軍火新創 Anduril 的創辦人 Palmer Luckey 在 X 上貼出了杜魯門 1948 年徵用全國鐵路的行政命令全文,用歷史暗示一個問題:造 AI 的公司,有權決定 AI 怎麼被軍方使用嗎?
Palmer Luckey 是誰
Luckey 的人生履歷讀起來像是矽谷的極端案例,21 歲把自己創辦的虛擬實境公司 Oculus 以 23 億美元賣給 Facebook,成為科技業最年輕的億萬富翁之一。2017 年因為政治捐款爭議被 Meta 開除,同年創立 Anduril Industries,公司名字取自《魔戒》裡亞拉岡的那把重鑄之劍。
從虛擬實境轉向國防科技,Luckey 把 Anduril 打造成五角大廈最重要的新一代承包商,公司估值在 2026 年突破 600 億美元,累計拿下超過 60 億美元的政府合約,產品線涵蓋 Lattice AI 戰場決策平台、Fury 無人戰機、Roadrunner 無人機攔截器,還有部署在美墨邊境的監控塔。2026 年 2 月,他秘密訪問以色列並會見總理 Netanyahu 的消息被以色列媒體曝光。
在矽谷,Luckey 是最堅定主張科技公司應該和軍方合作的聲音,他公開說過矽谷過去幾年拒絕和五角大廈合作的態度「非常、非常危險」,等於是在說「你不相信這個民主實驗」。但讓他和其他國防鷹派不同的是另一句話,是他在談到自己公司權力時說的:「大多數人根本沒想過,如果我們真的想施展權力,我們會有多大的力量。別讓我們這樣,別讓我。」
一個造自主武器的人,主動要求被約束。這個矛盾是理解他在 Anthropic 事件中立場的關鍵。
當飛彈公司可以關掉飛彈
Luckey 對 Anthropic 立場的批評不是情緒性的,他提出了一個思想實驗。
假設有一家飛彈公司,在合約裡寫了一條看似無懈可擊的條款:「本公司產品不可用於攻擊無辜平民。」公司保留在違約時切斷軍方存取權的權力。
聽起來像是最基本的道德底線,沒有人會反對不攻擊無辜平民。但 Luckey 把這個條款一層一層拆開。
誰定義「平民」?在現代戰爭中,平民和戰鬥人員的界線早已不是涇渭分明的,游擊隊、民兵、穿便服的情報人員,每一個分類都是灰色地帶。誰定義「無辜」?一個為敵方軍隊運送補給的卡車司機算不算無辜?「攻擊」和附帶損害之間的界線在哪裡?如果一次精確打擊的目標是軍事設施,但半徑內有平民建築,這算不算違反條款?
這些問題已經夠複雜了,但 Luckey 繼續往下推。這家飛彈公司要掌握多少機密資訊,才有能力判斷軍方是否違約?它會不會利用這個位置要求取得更多情報?當一家私人企業坐擁大量國防機密,同時又握有切斷武器系統的權力,這個權力結構本身就是一個國安風險。
然後是嚇阻理論的問題。冷戰以來,核武嚇阻的基礎是相互保證毀滅,你知道我有能力摧毀你,所以你不敢先動手。但如果敵國的獨裁者知道,美國總統的武器存取權可以被一家公司的高管切斷,這個嚇阻還可信嗎?如果總統只是威脅要使用某種武器(類似尼克森的瘋子理論),企業高管會不會因為擔心道德風險而提前介入,讓威脅變成空話?
Luckey 最後把問題指向企業高管本身。這些做判斷的人有什麼政治立場?他們的個人信仰會不會影響他們對「無辜」和「攻擊」的定義?在一個兩黨嚴重對立的國家,讓少數未經選舉的企業領導人掌握軍事政策的實質否決權,這符合民主的精神嗎?
Luckey 的結論是,Anthropic 要求軍方接受的那些「看似無害的條款」,本質上是一個道德地雷區。他在 X 上模仿支持者的語氣寫道:「拜託,就同意 AI 不參與自主武器和大規模監控嘛,這有什麼難的。」然後直接回擊,這個立場是不可持續的,美國不可能接受。
兩種「負責」的定義
Luckey 不只是在批評 Anthropic,他同時在為 Anduril 的路線辯護。而這兩條路線的差異,比表面上看起來的更根本。
Anduril 的原則是軍事政策的決定權屬於民選領導人,企業的角色是提供工具,Luckey 在 X 上明確說這是「Anduril 的建國原則」。他在 CBS《60 分鐘》訪談中的說法更具體:Anduril 的軟體不會在沒有一個直接負責的人的情況下做任何生死決策。
但這裡有一個微妙的區別,Anduril 的框架是「human on the loop」,人在迴圈上方監督,而不是「human in the loop」,人在迴圈內部逐步決策。前者意味著人類可以介入但不需要批准每一個動作,後者意味著每個關鍵決策都需要人類明確授權。
對於一架在戰場上以毫秒為單位做反應的無人機來說,這兩者的差距可能就是全自主和半自主之間的距離。
批評者指出,Anduril 的核心產品 Lattice AI 本身就是為了「自動化戰場決策」而設計的。說公司不參與生死決策,但公司的產品就是為了讓這些決策更快、更自動,這之間的張力 Luckey 從未正面回應。
Anthropic 走的是相反的路,Dario Amodei 的邏輯是現階段的前沿 AI 模型可靠度不足以承擔全自主武器的責任,允許現有模型用於無人類參與的殺傷決策「會危害美國軍人和平民的安全」。Anthropic 同意幾乎所有軍事用途,只堅持兩條紅線:不用於大規模國內監控、不用於全自主武器,而且這兩條紅線從未影響過任何一項實際的政府任務。
兩家公司都說自己在「負責任地」發展 AI,但他們對「負責」的定義完全相反。Anthropic 認為負責意味著公司必須確保自己的技術不被用於他們認為危險的用途,即使這意味著和政府對抗。
Anduril 認為負責意味著公司不越權,把軍事決策交給民主制度中的民選領導人,即使這意味著放棄對自己產品用途的最終控制。
OpenAI 的第三條路
這場辯論裡最複雜的角色是 OpenAI,因為他們既想守住紅線,又想拿下合約。
Anthropic 被封殺的隔天,OpenAI 發布了一份長篇聲明,公開他們和戰爭部合約的具體條款和合約原文。聲明開頭帶著微妙的競爭意味:「我們認為這份合約的保障比過去所有機密 AI 部署協議都更強,包括 Anthropic 的。」
OpenAI 列出三條紅線,比 Anthropic 的兩條多了一條:不用於大規模國內監控,不用於指揮自主武器系統,不用於高風險自動化決策(例如社會信用系統)。技術架構上,OpenAI 堅持雲端部署,不提供邊緣裝置部署(因為邊緣部署才有可能實際驅動自主武器),保留完整的安全堆疊控制權,並派駐持有安全許可的工程師和安全研究員在現場監督。
聲明中有兩個關鍵細節,第一是 OpenAI 說他們主動要求戰爭部把同樣的條款開放給所有 AI 公司,「特別要求政府嘗試和 Anthropic 解決問題」。第二,被問到 Anthropic 是否應該被列為供應鏈風險時,OpenAI 的回答是「不應該,我們已經向政府表明了這個立場」。
但合約裡有一個 Luckey 可能不會喜歡的條款:如果政府違反合約條件,OpenAI 可以終止合約,而且合約明確鎖定現行法律標準,即使未來國會修改相關法律,軍方使用 OpenAI 系統仍必須符合簽約當時的規範。換句話說,OpenAI 也保留了對軍方的否決權,只是把它包裝在法律框架裡,而不是像 Anthropic 那樣單方面宣布紅線。
這就是 OpenAI 的微妙位置,他們在 2024 年 12 月就和 Anduril 宣布戰略合作,共同開發國防 AI,聚焦反無人機系統。Anduril 的創辦人公開說 Anthropic 的紅線「不可持續」,而 OpenAI 卻把幾乎相同的紅線寫進了具有法律約束力的合約裡。
Luckey 在訪談中透露了一個更大的轉向,他說如果你私下和科技公司領導人聊,他們會告訴你「永不再犯」,不會再讓一小群激進員工左右軍事合約的決策,這話指的是 2018 年 Google 在員工抗議下退出五角大廈 Project Maven 的事件。
但基層員工和高層的方向完全相反,超過 400 名 Google 員工和近 60 名 OpenAI 員工聯合簽署公開信支持 Anthropic,信中直接指出五角大廈的策略本質是用恐懼分化每家公司,讓他們害怕對手會先讓步。
同一個恐懼,相反的答案
Palmer Luckey 和 Dario Amodei 其實在擔心同一件事,AI 武器一旦失控的後果。他們的分歧不在目標,在於誰應該負責防止那個最壞的情境。
Luckey 相信民主制度,他認為不管這個制度多不完美,軍事決策的權力必須留在民選領導人手中,因為選民至少可以用選票讓他們下台,企業高管沒有這個制衡機制。
Amodei 相信企業自律。他認為當政府要求的事情越過了基本倫理底線,公司有權利也有義務說不,因為民主制度的糾錯速度可能跟不上 AI 技術的部署速度。
Luckey 在 X 上的最後一段話是這樣寫的:「歸根結底,你必須相信美國的實驗還在進行中,相信人民有權選出和撤換做這些決定的當權者,相信我們不完美的憲政共和國仍然好到足以治理一個國家,而不需要把真正的權力槓桿外包給億萬富翁和企業。我仍然相信。」
相關資料:
Anthropic 官方聲明:Statement on the comments from Secretary of War Pete Hegseth
https://www.anthropic.com/news/statement-comments-secretary-war
NPR:President Trump bans U.S. government from using Anthropic
https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban
OfficeChai:Palmer Luckey Explains Why Anthropic's Position Is "Untenable"
https://officechai.com/ai/anduril-founder-palmer-luckey-explains-why-anthropics-position-about-ai-use-for-national-security-is-untenable/
Dnyuz:Palmer Luckey Says Refusing Pentagon Work Is 'Really, Really Dangerous'
https://dnyuz.com/2026/02/27/palmer-luckey-says-refusing-to-work-with-the-pentagon-is-really-really-dangerous-and-reveals-the-one-big-thing-silicon-valley-is-vowing-to-never-do-again/
CBS News:Palmer Luckey on Autonomous Weapons (60 Minutes)
https://www.cbsnews.com/news/palmer-luckey-ai-powered-autonomous-weapons-future-of-warfare-60-minutes-transcript/
TechCrunch:Employees at Google and OpenAI support Anthropic's Pentagon stand in open letter
https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter/
OpenAI 官方聲明:Our agreement with the Department of War
https://openai.com/index/our-agreement-with-the-department-of-war/
CNBC:OpenAI Strikes Deal with Pentagon
https://www.cnbc.com/2026/02/27/openai-strikes-deal-with-pentagon-hours-after-rival-anthropic-was-blacklisted-by-trump.html
Haaretz:Palmer Luckey Secret Visit to Israel, Meets Netanyahu
https://www.haaretz.com/israel-news/israel-security/2026-02-20/ty-article/.premium/founder-of-u-s-defense-tech-giant-anduril-visits-israel-secretly-meets-netanyahu/0000019c-79d2-dfbe-a39f-79f2553a0000
最後更新:2026-03-01