Anthropic 事件:你贊成 AI 公司老闆有關掉武器的權力嗎?

Anthropic 事件:你贊成 AI 公司老闆有關掉武器的權力嗎?

1945 年 10 月,曼哈頓計畫結束兩個月後,原子彈之父歐本海默走進白宮面見杜魯門總統。他對杜魯門說了一句話:「總統先生,我覺得我的雙手沾滿了鮮血。」

杜魯門的反應不是同情。他事後對國務次卿 Dean Acheson 說:「他手上沾了血?該死,他手上的血連我的一半都沒有。你不會到處跑來跑去為這件事哭哭啼啼。我再也不想在辦公室裡見到那個混蛋。」

杜魯門的邏輯很清楚,造出武器的人是科學家,決定使用武器的人是總統,道德責任在做決策的人身上,不在造工具的人身上。

80 年後,2026 年 2 月 27 日,Anthropic 因為拒絕戰爭部的無限制使用要求被列為「供應鏈國家安全風險」。同一天,全球估值最高的 AI 軍火新創 Anduril 的創辦人 Palmer Luckey 在 X 上貼出了杜魯門 1948 年徵用全國鐵路的行政命令全文,用歷史暗示一個問題:造 AI 的公司,有權決定 AI 怎麼被軍方使用嗎?

Palmer Luckey 是誰

Luckey 的人生履歷讀起來像是矽谷的極端案例,21 歲把自己創辦的虛擬實境公司 Oculus 以 23 億美元賣給 Facebook,成為科技業最年輕的億萬富翁之一。2017 年因為政治捐款爭議被 Meta 開除,同年創立 Anduril Industries,公司名字取自《魔戒》裡亞拉岡的那把重鑄之劍。

從虛擬實境轉向國防科技,Luckey 把 Anduril 打造成五角大廈最重要的新一代承包商,公司估值在 2026 年突破 600 億美元,累計拿下超過 60 億美元的政府合約,產品線涵蓋 Lattice AI 戰場決策平台、Fury 無人戰機、Roadrunner 無人機攔截器,還有部署在美墨邊境的監控塔。2026 年 2 月,他秘密訪問以色列並會見總理 Netanyahu 的消息被以色列媒體曝光。

在矽谷,Luckey 是最堅定主張科技公司應該和軍方合作的聲音,他公開說過矽谷過去幾年拒絕和五角大廈合作的態度「非常、非常危險」,等於是在說「你不相信這個民主實驗」。但讓他和其他國防鷹派不同的是另一句話,是他在談到自己公司權力時說的:「大多數人根本沒想過,如果我們真的想施展權力,我們會有多大的力量。別讓我們這樣,別讓我。」

一個造自主武器的人,主動要求被約束。這個矛盾是理解他在 Anthropic 事件中立場的關鍵。

當飛彈公司可以關掉飛彈

Luckey 對 Anthropic 立場的批評不是情緒性的,他提出了一個思想實驗。

假設有一家飛彈公司,在合約裡寫了一條看似無懈可擊的條款:「本公司產品不可用於攻擊無辜平民。」公司保留在違約時切斷軍方存取權的權力。

聽起來像是最基本的道德底線,沒有人會反對不攻擊無辜平民。但 Luckey 把這個條款一層一層拆開。

誰定義「平民」?在現代戰爭中,平民和戰鬥人員的界線早已不是涇渭分明的,游擊隊、民兵、穿便服的情報人員,每一個分類都是灰色地帶。誰定義「無辜」?一個為敵方軍隊運送補給的卡車司機算不算無辜?「攻擊」和附帶損害之間的界線在哪裡?如果一次精確打擊的目標是軍事設施,但半徑內有平民建築,這算不算違反條款?

這些問題已經夠複雜了,但 Luckey 繼續往下推。這家飛彈公司要掌握多少機密資訊,才有能力判斷軍方是否違約?它會不會利用這個位置要求取得更多情報?當一家私人企業坐擁大量國防機密,同時又握有切斷武器系統的權力,這個權力結構本身就是一個國安風險。

然後是嚇阻理論的問題。冷戰以來,核武嚇阻的基礎是相互保證毀滅,你知道我有能力摧毀你,所以你不敢先動手。但如果敵國的獨裁者知道,美國總統的武器存取權可以被一家公司的高管切斷,這個嚇阻還可信嗎?如果總統只是威脅要使用某種武器(類似尼克森的瘋子理論),企業高管會不會因為擔心道德風險而提前介入,讓威脅變成空話?

Luckey 最後把問題指向企業高管本身。這些做判斷的人有什麼政治立場?他們的個人信仰會不會影響他們對「無辜」和「攻擊」的定義?在一個兩黨嚴重對立的國家,讓少數未經選舉的企業領導人掌握軍事政策的實質否決權,這符合民主的精神嗎?

Luckey 的結論是,Anthropic 要求軍方接受的那些「看似無害的條款」,本質上是一個道德地雷區。他在 X 上模仿支持者的語氣寫道:「拜託,就同意 AI 不參與自主武器和大規模監控嘛,這有什麼難的。」然後直接回擊,這個立場是不可持續的,美國不可能接受。

兩種「負責」的定義

Luckey 不只是在批評 Anthropic,他同時在為 Anduril 的路線辯護。而這兩條路線的差異,比表面上看起來的更根本。

Anduril 的原則是軍事政策的決定權屬於民選領導人,企業的角色是提供工具,Luckey 在 X 上明確說這是「Anduril 的建國原則」。他在 CBS《60 分鐘》訪談中的說法更具體:Anduril 的軟體不會在沒有一個直接負責的人的情況下做任何生死決策。

但這裡有一個微妙的區別,Anduril 的框架是「human on the loop」,人在迴圈上方監督,而不是「human in the loop」,人在迴圈內部逐步決策。前者意味著人類可以介入但不需要批准每一個動作,後者意味著每個關鍵決策都需要人類明確授權。

對於一架在戰場上以毫秒為單位做反應的無人機來說,這兩者的差距可能就是全自主和半自主之間的距離。

批評者指出,Anduril 的核心產品 Lattice AI 本身就是為了「自動化戰場決策」而設計的。說公司不參與生死決策,但公司的產品就是為了讓這些決策更快、更自動,這之間的張力 Luckey 從未正面回應。

Anthropic 走的是相反的路,Dario Amodei 的邏輯是現階段的前沿 AI 模型可靠度不足以承擔全自主武器的責任,允許現有模型用於無人類參與的殺傷決策「會危害美國軍人和平民的安全」。Anthropic 同意幾乎所有軍事用途,只堅持兩條紅線:不用於大規模國內監控、不用於全自主武器,而且這兩條紅線從未影響過任何一項實際的政府任務。

兩家公司都說自己在「負責任地」發展 AI,但他們對「負責」的定義完全相反。Anthropic 認為負責意味著公司必須確保自己的技術不被用於他們認為危險的用途,即使這意味著和政府對抗。

Anduril 認為負責意味著公司不越權,把軍事決策交給民主制度中的民選領導人,即使這意味著放棄對自己產品用途的最終控制。

OpenAI 的第三條路

這場辯論裡最複雜的角色是 OpenAI,因為他們既想守住紅線,又想拿下合約。

Anthropic 被封殺的隔天,OpenAI 發布了一份長篇聲明,公開他們和戰爭部合約的具體條款和合約原文。聲明開頭帶著微妙的競爭意味:「我們認為這份合約的保障比過去所有機密 AI 部署協議都更強,包括 Anthropic 的。」

OpenAI 列出三條紅線,比 Anthropic 的兩條多了一條:不用於大規模國內監控,不用於指揮自主武器系統,不用於高風險自動化決策(例如社會信用系統)。技術架構上,OpenAI 堅持雲端部署,不提供邊緣裝置部署(因為邊緣部署才有可能實際驅動自主武器),保留完整的安全堆疊控制權,並派駐持有安全許可的工程師和安全研究員在現場監督。

聲明中有兩個關鍵細節,第一是 OpenAI 說他們主動要求戰爭部把同樣的條款開放給所有 AI 公司,「特別要求政府嘗試和 Anthropic 解決問題」。第二,被問到 Anthropic 是否應該被列為供應鏈風險時,OpenAI 的回答是「不應該,我們已經向政府表明了這個立場」。

但合約裡有一個 Luckey 可能不會喜歡的條款:如果政府違反合約條件,OpenAI 可以終止合約,而且合約明確鎖定現行法律標準,即使未來國會修改相關法律,軍方使用 OpenAI 系統仍必須符合簽約當時的規範。換句話說,OpenAI 也保留了對軍方的否決權,只是把它包裝在法律框架裡,而不是像 Anthropic 那樣單方面宣布紅線。

這就是 OpenAI 的微妙位置,他們在 2024 年 12 月就和 Anduril 宣布戰略合作,共同開發國防 AI,聚焦反無人機系統。Anduril 的創辦人公開說 Anthropic 的紅線「不可持續」,而 OpenAI 卻把幾乎相同的紅線寫進了具有法律約束力的合約裡。

Luckey 在訪談中透露了一個更大的轉向,他說如果你私下和科技公司領導人聊,他們會告訴你「永不再犯」,不會再讓一小群激進員工左右軍事合約的決策,這話指的是 2018 年 Google 在員工抗議下退出五角大廈 Project Maven 的事件。

但基層員工和高層的方向完全相反,超過 400 名 Google 員工和近 60 名 OpenAI 員工聯合簽署公開信支持 Anthropic,信中直接指出五角大廈的策略本質是用恐懼分化每家公司,讓他們害怕對手會先讓步。

同一個恐懼,相反的答案

Palmer Luckey 和 Dario Amodei 其實在擔心同一件事,AI 武器一旦失控的後果。他們的分歧不在目標,在於誰應該負責防止那個最壞的情境。

Luckey 相信民主制度,他認為不管這個制度多不完美,軍事決策的權力必須留在民選領導人手中,因為選民至少可以用選票讓他們下台,企業高管沒有這個制衡機制。

Amodei 相信企業自律。他認為當政府要求的事情越過了基本倫理底線,公司有權利也有義務說不,因為民主制度的糾錯速度可能跟不上 AI 技術的部署速度。

Luckey 在 X 上的最後一段話是這樣寫的:「歸根結底,你必須相信美國的實驗還在進行中,相信人民有權選出和撤換做這些決定的當權者,相信我們不完美的憲政共和國仍然好到足以治理一個國家,而不需要把真正的權力槓桿外包給億萬富翁和企業。我仍然相信。」

相關資料:

Anthropic 官方聲明:Statement on the comments from Secretary of War Pete Hegseth
https://www.anthropic.com/news/statement-comments-secretary-war

NPR:President Trump bans U.S. government from using Anthropic
https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban

OfficeChai:Palmer Luckey Explains Why Anthropic's Position Is "Untenable"
https://officechai.com/ai/anduril-founder-palmer-luckey-explains-why-anthropics-position-about-ai-use-for-national-security-is-untenable/

Dnyuz:Palmer Luckey Says Refusing Pentagon Work Is 'Really, Really Dangerous'
https://dnyuz.com/2026/02/27/palmer-luckey-says-refusing-to-work-with-the-pentagon-is-really-really-dangerous-and-reveals-the-one-big-thing-silicon-valley-is-vowing-to-never-do-again/

CBS News:Palmer Luckey on Autonomous Weapons (60 Minutes)
https://www.cbsnews.com/news/palmer-luckey-ai-powered-autonomous-weapons-future-of-warfare-60-minutes-transcript/

TechCrunch:Employees at Google and OpenAI support Anthropic's Pentagon stand in open letter
https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter/

OpenAI 官方聲明:Our agreement with the Department of War
https://openai.com/index/our-agreement-with-the-department-of-war/

CNBC:OpenAI Strikes Deal with Pentagon
https://www.cnbc.com/2026/02/27/openai-strikes-deal-with-pentagon-hours-after-rival-anthropic-was-blacklisted-by-trump.html

Haaretz:Palmer Luckey Secret Visit to Israel, Meets Netanyahu
https://www.haaretz.com/israel-news/israel-security/2026-02-20/ty-article/.premium/founder-of-u-s-defense-tech-giant-anduril-visits-israel-secretly-meets-netanyahu/0000019c-79d2-dfbe-a39f-79f2553a0000

最後更新:2026-03-01

Read more

AI 時代 Claude Code 育兒法:她用 11 個代理人換來兩小時不理小孩

AI 時代 Claude Code 育兒法:她用 11 個代理人換來兩小時不理小孩

一個已經放棄技術夢的媽媽,養四個五歲以下的孩子 Jesse Genet 是 YC 2015 屆的創辦人,那家叫 Lumi 的包裝公司,幾年前賣掉了。離開戰場之後,她回歸家庭生下四個孩子,現在最大的五歲、最小的才四個月,全部在家自學。她原本打算未來五年不碰任何需要技術能力的新東西,這不是沮喪,只是承認現在的時間分配容不下那些。 六個月前這件事被翻過來了,她第一次打開終端機開始寫東西。兩三個月前她看著 Obsidian 社群的朋友聊 Claude Code,想清楚一件事:她可以趁孩子睡覺或自己玩的時候,建一群代理人替她工作。現在她有 11 個代理人,每天處理自學課表、教材採購、DoorDash 雜貨、家庭記帳,甚至能在她不碰 Mac Mini 的情況下,自己長出新的代理人。 這篇文章不是要你羨慕她有 11 個分身,真正值得記下來的是她反覆提到的一個詞:benevolent neglect,有意為之的放手。

By Fox Hsiao
NASA 月球基地計畫攤開看:三階段、七子系統、採購清單全公開

NASA 月球基地計畫攤開看:三階段、七子系統、採購清單全公開

這份文件該被當成徵求提案書來讀 2026 年 3 月 24 日,NASA 在華盛頓總部辦了一場叫「點火」(Ignition)的活動,邀請產業代表與國際太空社群到場。署長 Jared Isaacman 當場宣布,美國要在月球南極建一座月球基地(Moon Base),採分階段迭代推進。 這類宣示本身不稀奇,Artemis(NASA 自 2017 年啟動的月球重返計畫)已經喊了好幾年,大家多少聽過;真正值得停下來看的,是 NASA 在這次活動同步釋出的一份 16 頁文件《月球基地架構使用者指南》(Moon Base Architecture User's Guide)。 文件的真正讀者是產業、學界、國際夥伴,NASA 把月球基地要做的事、自己還不會的事、希望外面接哪幾塊,

By Fox Hsiao
Anthropic 成長負責人:工程師變快 3 倍之後,PM 反而變成最稀缺的人

Anthropic 成長負責人:工程師變快 3 倍之後,PM 反而變成最稀缺的人

2026 年 2 月,Anthropic 的年化營收(ARR)達到 190 億美元,比 14 個月前的 10 億美元成長了 19 倍。對照組更荒謬:Atlassian、Palantir、Snowflake 這些老牌 B2B 軟體公司,經營 15 到 20 年之後的 ARR 大約落在 45 到 60 億美元之間,Anthropic 每隔幾個月就多加一個這樣的公司規模到自己的營收上。 這樣的成長速度背後,Anthropic 的成長團隊規模小到不成比例。2025 年中,整個成長行銷只有 Austin Lau 一個人在扛,paid search、paid social、

By Fox Hsiao
AI 大神 Karpathy 的 AI 筆記流,一般人也能做到八成

AI 大神 Karpathy 的 AI 筆記流,一般人也能做到八成

我自己是幾乎不用筆記軟體的,身為一個不聰明的人,最常用的是 Apple 的備忘錄,但我覺得這篇大神的筆記流讓覺得蠻值得一試的,因為其實已經跟我現在用的 AI 工作流有點像,介於有筆記跟沒筆記中間惹 (?) 一般而言,大多數人用 ChatGPT 的方式,像是去便利商店買東西:有問題,問一下,拿到答案,關掉視窗,下次再從零開始。Karpathy 和 Lex Fridman 做的事情完全不同,他們讓 AI 幫自己蓋了一座圖書館,而且這座圖書館會自己長大。這篇文章會拆解這兩位 AI 領域最頂尖的人怎麼用 AI 做筆記,然後告訴你:不用寫程式,你也能做到八成。 先搞懂一件事:你用 AI 的方式可能一直在浪費 想像你手邊有兩個實習生,做事方式完全不同。實習生 A,你每次丟一個問題給他,他回答完就失憶了,下次問類似的問題,他又從頭查一遍。實習生

By Fox Hsiao