Anthropic 事件:你贊成 AI 公司老闆有關掉武器的權力嗎?

Anthropic 事件:你贊成 AI 公司老闆有關掉武器的權力嗎?

1945 年 10 月,曼哈頓計畫結束兩個月後,原子彈之父歐本海默走進白宮面見杜魯門總統。他對杜魯門說了一句話:「總統先生,我覺得我的雙手沾滿了鮮血。」

杜魯門的反應不是同情。他事後對國務次卿 Dean Acheson 說:「他手上沾了血?該死,他手上的血連我的一半都沒有。你不會到處跑來跑去為這件事哭哭啼啼。我再也不想在辦公室裡見到那個混蛋。」

杜魯門的邏輯很清楚,造出武器的人是科學家,決定使用武器的人是總統,道德責任在做決策的人身上,不在造工具的人身上。

80 年後,2026 年 2 月 27 日,Anthropic 因為拒絕戰爭部的無限制使用要求被列為「供應鏈國家安全風險」。同一天,全球估值最高的 AI 軍火新創 Anduril 的創辦人 Palmer Luckey 在 X 上貼出了杜魯門 1948 年徵用全國鐵路的行政命令全文,用歷史暗示一個問題:造 AI 的公司,有權決定 AI 怎麼被軍方使用嗎?

Palmer Luckey 是誰

Luckey 的人生履歷讀起來像是矽谷的極端案例,21 歲把自己創辦的虛擬實境公司 Oculus 以 23 億美元賣給 Facebook,成為科技業最年輕的億萬富翁之一。2017 年因為政治捐款爭議被 Meta 開除,同年創立 Anduril Industries,公司名字取自《魔戒》裡亞拉岡的那把重鑄之劍。

從虛擬實境轉向國防科技,Luckey 把 Anduril 打造成五角大廈最重要的新一代承包商,公司估值在 2026 年突破 600 億美元,累計拿下超過 60 億美元的政府合約,產品線涵蓋 Lattice AI 戰場決策平台、Fury 無人戰機、Roadrunner 無人機攔截器,還有部署在美墨邊境的監控塔。2026 年 2 月,他秘密訪問以色列並會見總理 Netanyahu 的消息被以色列媒體曝光。

在矽谷,Luckey 是最堅定主張科技公司應該和軍方合作的聲音,他公開說過矽谷過去幾年拒絕和五角大廈合作的態度「非常、非常危險」,等於是在說「你不相信這個民主實驗」。但讓他和其他國防鷹派不同的是另一句話,是他在談到自己公司權力時說的:「大多數人根本沒想過,如果我們真的想施展權力,我們會有多大的力量。別讓我們這樣,別讓我。」

一個造自主武器的人,主動要求被約束。這個矛盾是理解他在 Anthropic 事件中立場的關鍵。

當飛彈公司可以關掉飛彈

Luckey 對 Anthropic 立場的批評不是情緒性的,他提出了一個思想實驗。

假設有一家飛彈公司,在合約裡寫了一條看似無懈可擊的條款:「本公司產品不可用於攻擊無辜平民。」公司保留在違約時切斷軍方存取權的權力。

聽起來像是最基本的道德底線,沒有人會反對不攻擊無辜平民。但 Luckey 把這個條款一層一層拆開。

誰定義「平民」?在現代戰爭中,平民和戰鬥人員的界線早已不是涇渭分明的,游擊隊、民兵、穿便服的情報人員,每一個分類都是灰色地帶。誰定義「無辜」?一個為敵方軍隊運送補給的卡車司機算不算無辜?「攻擊」和附帶損害之間的界線在哪裡?如果一次精確打擊的目標是軍事設施,但半徑內有平民建築,這算不算違反條款?

這些問題已經夠複雜了,但 Luckey 繼續往下推。這家飛彈公司要掌握多少機密資訊,才有能力判斷軍方是否違約?它會不會利用這個位置要求取得更多情報?當一家私人企業坐擁大量國防機密,同時又握有切斷武器系統的權力,這個權力結構本身就是一個國安風險。

然後是嚇阻理論的問題。冷戰以來,核武嚇阻的基礎是相互保證毀滅,你知道我有能力摧毀你,所以你不敢先動手。但如果敵國的獨裁者知道,美國總統的武器存取權可以被一家公司的高管切斷,這個嚇阻還可信嗎?如果總統只是威脅要使用某種武器(類似尼克森的瘋子理論),企業高管會不會因為擔心道德風險而提前介入,讓威脅變成空話?

Luckey 最後把問題指向企業高管本身。這些做判斷的人有什麼政治立場?他們的個人信仰會不會影響他們對「無辜」和「攻擊」的定義?在一個兩黨嚴重對立的國家,讓少數未經選舉的企業領導人掌握軍事政策的實質否決權,這符合民主的精神嗎?

Luckey 的結論是,Anthropic 要求軍方接受的那些「看似無害的條款」,本質上是一個道德地雷區。他在 X 上模仿支持者的語氣寫道:「拜託,就同意 AI 不參與自主武器和大規模監控嘛,這有什麼難的。」然後直接回擊,這個立場是不可持續的,美國不可能接受。

兩種「負責」的定義

Luckey 不只是在批評 Anthropic,他同時在為 Anduril 的路線辯護。而這兩條路線的差異,比表面上看起來的更根本。

Anduril 的原則是軍事政策的決定權屬於民選領導人,企業的角色是提供工具,Luckey 在 X 上明確說這是「Anduril 的建國原則」。他在 CBS《60 分鐘》訪談中的說法更具體:Anduril 的軟體不會在沒有一個直接負責的人的情況下做任何生死決策。

但這裡有一個微妙的區別,Anduril 的框架是「human on the loop」,人在迴圈上方監督,而不是「human in the loop」,人在迴圈內部逐步決策。前者意味著人類可以介入但不需要批准每一個動作,後者意味著每個關鍵決策都需要人類明確授權。

對於一架在戰場上以毫秒為單位做反應的無人機來說,這兩者的差距可能就是全自主和半自主之間的距離。

批評者指出,Anduril 的核心產品 Lattice AI 本身就是為了「自動化戰場決策」而設計的。說公司不參與生死決策,但公司的產品就是為了讓這些決策更快、更自動,這之間的張力 Luckey 從未正面回應。

Anthropic 走的是相反的路,Dario Amodei 的邏輯是現階段的前沿 AI 模型可靠度不足以承擔全自主武器的責任,允許現有模型用於無人類參與的殺傷決策「會危害美國軍人和平民的安全」。Anthropic 同意幾乎所有軍事用途,只堅持兩條紅線:不用於大規模國內監控、不用於全自主武器,而且這兩條紅線從未影響過任何一項實際的政府任務。

兩家公司都說自己在「負責任地」發展 AI,但他們對「負責」的定義完全相反。Anthropic 認為負責意味著公司必須確保自己的技術不被用於他們認為危險的用途,即使這意味著和政府對抗。

Anduril 認為負責意味著公司不越權,把軍事決策交給民主制度中的民選領導人,即使這意味著放棄對自己產品用途的最終控制。

OpenAI 的第三條路

這場辯論裡最複雜的角色是 OpenAI,因為他們既想守住紅線,又想拿下合約。

Anthropic 被封殺的隔天,OpenAI 發布了一份長篇聲明,公開他們和戰爭部合約的具體條款和合約原文。聲明開頭帶著微妙的競爭意味:「我們認為這份合約的保障比過去所有機密 AI 部署協議都更強,包括 Anthropic 的。」

OpenAI 列出三條紅線,比 Anthropic 的兩條多了一條:不用於大規模國內監控,不用於指揮自主武器系統,不用於高風險自動化決策(例如社會信用系統)。技術架構上,OpenAI 堅持雲端部署,不提供邊緣裝置部署(因為邊緣部署才有可能實際驅動自主武器),保留完整的安全堆疊控制權,並派駐持有安全許可的工程師和安全研究員在現場監督。

聲明中有兩個關鍵細節,第一是 OpenAI 說他們主動要求戰爭部把同樣的條款開放給所有 AI 公司,「特別要求政府嘗試和 Anthropic 解決問題」。第二,被問到 Anthropic 是否應該被列為供應鏈風險時,OpenAI 的回答是「不應該,我們已經向政府表明了這個立場」。

但合約裡有一個 Luckey 可能不會喜歡的條款:如果政府違反合約條件,OpenAI 可以終止合約,而且合約明確鎖定現行法律標準,即使未來國會修改相關法律,軍方使用 OpenAI 系統仍必須符合簽約當時的規範。換句話說,OpenAI 也保留了對軍方的否決權,只是把它包裝在法律框架裡,而不是像 Anthropic 那樣單方面宣布紅線。

這就是 OpenAI 的微妙位置,他們在 2024 年 12 月就和 Anduril 宣布戰略合作,共同開發國防 AI,聚焦反無人機系統。Anduril 的創辦人公開說 Anthropic 的紅線「不可持續」,而 OpenAI 卻把幾乎相同的紅線寫進了具有法律約束力的合約裡。

Luckey 在訪談中透露了一個更大的轉向,他說如果你私下和科技公司領導人聊,他們會告訴你「永不再犯」,不會再讓一小群激進員工左右軍事合約的決策,這話指的是 2018 年 Google 在員工抗議下退出五角大廈 Project Maven 的事件。

但基層員工和高層的方向完全相反,超過 400 名 Google 員工和近 60 名 OpenAI 員工聯合簽署公開信支持 Anthropic,信中直接指出五角大廈的策略本質是用恐懼分化每家公司,讓他們害怕對手會先讓步。

同一個恐懼,相反的答案

Palmer Luckey 和 Dario Amodei 其實在擔心同一件事,AI 武器一旦失控的後果。他們的分歧不在目標,在於誰應該負責防止那個最壞的情境。

Luckey 相信民主制度,他認為不管這個制度多不完美,軍事決策的權力必須留在民選領導人手中,因為選民至少可以用選票讓他們下台,企業高管沒有這個制衡機制。

Amodei 相信企業自律。他認為當政府要求的事情越過了基本倫理底線,公司有權利也有義務說不,因為民主制度的糾錯速度可能跟不上 AI 技術的部署速度。

Luckey 在 X 上的最後一段話是這樣寫的:「歸根結底,你必須相信美國的實驗還在進行中,相信人民有權選出和撤換做這些決定的當權者,相信我們不完美的憲政共和國仍然好到足以治理一個國家,而不需要把真正的權力槓桿外包給億萬富翁和企業。我仍然相信。」

相關資料:

Anthropic 官方聲明:Statement on the comments from Secretary of War Pete Hegseth
https://www.anthropic.com/news/statement-comments-secretary-war

NPR:President Trump bans U.S. government from using Anthropic
https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban

OfficeChai:Palmer Luckey Explains Why Anthropic's Position Is "Untenable"
https://officechai.com/ai/anduril-founder-palmer-luckey-explains-why-anthropics-position-about-ai-use-for-national-security-is-untenable/

Dnyuz:Palmer Luckey Says Refusing Pentagon Work Is 'Really, Really Dangerous'
https://dnyuz.com/2026/02/27/palmer-luckey-says-refusing-to-work-with-the-pentagon-is-really-really-dangerous-and-reveals-the-one-big-thing-silicon-valley-is-vowing-to-never-do-again/

CBS News:Palmer Luckey on Autonomous Weapons (60 Minutes)
https://www.cbsnews.com/news/palmer-luckey-ai-powered-autonomous-weapons-future-of-warfare-60-minutes-transcript/

TechCrunch:Employees at Google and OpenAI support Anthropic's Pentagon stand in open letter
https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter/

OpenAI 官方聲明:Our agreement with the Department of War
https://openai.com/index/our-agreement-with-the-department-of-war/

CNBC:OpenAI Strikes Deal with Pentagon
https://www.cnbc.com/2026/02/27/openai-strikes-deal-with-pentagon-hours-after-rival-anthropic-was-blacklisted-by-trump.html

Haaretz:Palmer Luckey Secret Visit to Israel, Meets Netanyahu
https://www.haaretz.com/israel-news/israel-security/2026-02-20/ty-article/.premium/founder-of-u-s-defense-tech-giant-anduril-visits-israel-secretly-meets-netanyahu/0000019c-79d2-dfbe-a39f-79f2553a0000

最後更新:2026-03-01

Read more

副駕駛 VS 自駕,紅杉告訴你 2026 年該創什麼業

副駕駛 VS 自駕,紅杉告訴你 2026 年該創什麼業

紅杉資本(Sequoia Capital)合夥人 Julien Bek 最近發了一篇文章,標題叫「Services: The New Software」,把自己的投資論文攤開來寫成一篇公開文章,而且最後一行直接附上他的 email,寫著「如果你正在做這件事,聯繫我」,這可能是公開畫了一張藏寶圖。 Bek 的核心論點可以用一個數據來理解,Anthropic 的數據顯示,軟體工程佔了所有 AI 工具使用量的一半以上,其他每一個職業都還在個位數。為什麼軟體工程跑在最前面?因為寫程式這件事的本質,絕大部分是智力工作(intelligence),AI 天生擅長,問題來了,每一個行業都該問自己:你的工作裡,智力和判斷的比例是多少? 智力 vs 判斷:紅杉怎麼決定要投誰 Bek 在文章裡把所有工作拆成兩個成分,智力(intelligence)和判斷(judgement),這個區分方式看似簡單,卻是他篩選投資標的的核心濾鏡。 智力指的是有規則可循的任務,

By Fox Hsiao
隱形第一槍:美國太空軍和網路軍如何在炸彈之前癱瘓伊朗

隱形第一槍:美國太空軍和網路軍如何在炸彈之前癱瘓伊朗

2026 年 2 月 28 日凌晨,美國中央司令部啟動 Operation Epic Fury,聯合以色列的 Operation Roaring Lion,對伊朗發動大規模軍事行動。大多數人記住的畫面是戰斧巡弋飛彈劃過夜空,F-35 投下精準導引彈藥,首日打擊超過 1,000 個目標。 但這些畫面記錄的,都是第二幕。 參謀長聯席會議主席 Dan Caine 空軍上將事後揭露了一個被多數媒體忽略的細節,第一批進場的是美國太空司令部(U.S. SPACECOM)和美國網路司令部(U.S. CYBERCOM),在任何動能武器發射之前就已經開始行動。Caine 說:「第一批行動者是太空司令部和網路司令部,疊加非動能效果,瓦解並削弱伊朗的偵測、通訊和回應能力。」 在第一枚戰斧飛彈發射之前,伊朗的防空雷達已經被軟體致盲,革命衛隊的指揮通訊已經被切斷,一款 500 萬用戶的禱告 App

By Fox Hsiao
台裔天才的 Arc Institute 6.5 億美元實驗:如果科學家不用寫計畫書

台裔天才的 Arc Institute 6.5 億美元實驗:如果科學家不用寫計畫書

全世界最聰明的科學家,有將近一半的時間不是在做科學。 他們在寫計畫書。美國國家衛生研究院(NIH)每年收到超過 8 萬份研究經費申請,通過率大約 20%,每五位教授花幾個月準備的計畫只有一位拿得到錢,其他人明年重來,就算拿到了也只有 3 到 5 年的保障,期限到了又得重新申請。 多項研究估計,美國教授平均花 30% 到 50% 的工作時間在申請、管理和報告經費上。如果你是一位基因工程學家,你花在填表格的時間可能跟做實驗差不多。 2021 年底,三個人決定做一場 6.5 億美元的實驗。他們創辦了 Arc Institute,告訴科學家一句話:「不用寫計畫書,去做你認為最重要的研究。」 四年後的成績單足以說明一切。兩篇同日登上《自然》(Nature)期刊的基因編輯突破、Forbes 2024 年五大醫學突破之一,以及一個能讀懂地球上超過 10 萬種生物

By Fox Hsiao
大英帝國三百年前建立的海上保險霸權,將被川普端走?

大英帝國三百年前建立的海上保險霸權,將被川普端走?

七封信,72 小時,五分之一的石油 2026 年 3 月 2 日,七家互保協會對全球航運業發出通知,72 小時後撤銷波斯灣和荷莫茲海峽的戰爭險承保。Gard、NorthStandard、Steamship Mutual、Skuld、American Club、Swedish Club、London P&I Club,這七家加起來覆蓋了全球九成遠洋船的噸位。 72 小時後,荷莫茲海峽的油輪通行量降到零。 不是因為飛彈。海峽在技術上仍然開放,美國海軍仍然在巡邏。但沒有戰爭險的船不能出港,因為港口不接、貨主不裝、銀行不貸。海事追蹤平台 Windward 的數據顯示,海峽通行量從日均約 138 艘暴跌至約 28 艘,至少 40 艘超大型油輪閒置在錨地,每一艘載著大約

By Fox Hsiao