馬斯克把「限制因素」說了一百次:三小時訪談的真正重點

馬斯克把「限制因素」說了一百次:三小時訪談的真正重點

2026 年 2 月 5 日,Dwarkesh Patel 發布了一段將近三小時的馬斯克(Elon Musk)訪談。八個主題、資訊密度極高,從軌道資料中心講到 DOGE 政府效率,從 AI 對齊哲學講到自建晶圓廠。

但如果你只有 15 分鐘,想從這場馬拉松對話裡抓住一個核心概念,那就是兩個英文字:limiting factor(限制因素)。

馬斯克在三小時內把這個詞說了快一百次,他自己都笑說:「我冒著把這個詞說太多次的風險。」但這個重複本身就是他思考一切問題的框架。

AI 為什麼要搬到太空?因為電力是限制因素。為什麼要自建晶圓廠?因為晶片會變成下一個限制因素。為什麼 SpaceX 能保持速度?因為他每週都在找限制因素。為什麼 DOGE 這麼難推?因為政府缺乏能力和關心程度,這是限制因素中的限制因素。

這場訪談的背景值得交代。就在幾天前,SpaceX 正式完成了對 xAI 的收購,合併估值達 1.25 兆美元,同時向美國聯邦通訊委員會(FCC)提交申請,計畫發射最多 100 萬顆太陽能資料中心衛星。

Dwarkesh 在訪談前寫了一篇 Notes on Space GPUs 的深度反面分析,讓這場對話有來有往,不只是馬斯克的獨角戲。

理解「限制因素」這個框架,馬斯克看似瘋狂的佈局就串成了一條邏輯鏈。

現在的限制因素:電力

馬斯克在訪談中做了一個明確判斷:「今年底之前,晶片產出就會超過能把晶片開機的可用電力。」

這句話的意思是,全球 AI 晶片的製造速度即將超過地球上能供給的電力。台積電、Samsung 持續擴產,NVIDIA 的 Blackwell 和 GB300 持續出貨,但電力基礎設施跟不上,美國目前的總用電量約為 500 百萬瓩(GW),要再多加 1 兆瓦(TW)的發電容量,等於把美國用電翻一倍。

光是 33 萬顆 GB300 GPU 就需要大約 1 百萬瓩(GW)的發電量,還得包含冷卻、網路、CPU、儲存和 20-25% 的維護餘量。

馬斯克用 xAI 自己的經歷說明問題有多嚴重。xAI 原本在田納西州建設 Colossus 訓練叢集,結果碰到許可障礙,電網併聯研究動輒超過 12 個月,最後只好跑去密西西比州自己蓋電廠。

一家 AI 公司,被迫變成電力公司。

瓶頸不只在許可流程。馬斯克指出全球只有三家鑄造公司能製造燃氣渦輪葉片,訂單已經排到 2030 年,你就算有錢有地也買不到渦輪機,而大氣層本身也在作對,地面太陽能有 30% 的能量損失來自大氣層吸收,加上天氣和日夜循環,實際容量因子只有約 25%。

馬斯克的判斷很明確:地面電力擴張的速度,追不上 AI 對算力的需求成長。這是物理限制,花更多錢也解決不了。

太空解方:當地球不夠用

既然地面電力是限制因素,馬斯克的下一個問題是:去哪裡解除這個限制?

答案是太空。他在訪談中的原話:「30 到 36 個月內,可能更接近 30 個月,太空將成為放置 AI 最經濟的地方。」

太空中的太陽能板效率是地面的 5 倍,沒有大氣層吸收、沒有天氣干擾、沒有日夜循環,幾乎 24 小時都在發電,而且太空中的太陽能板反而更便宜,不需要抗風化的特殊玻璃和框架。馬斯克說每瓦淨成本大約是地面方案的十分之一。

但馬斯克的核心論點比「省錢」更根本:地球上的電力根本不夠支撐 AI 需要的規模。他說:「唯一能真正擴展規模的地方是太空。」

他給出了一個五年預測:「五年後,我預測每年發射到太空運行的 AI 運算量,會超過地球上所有 AI 的累計總和。」Dwarkesh 問 SpaceX 是否會成為 AI 超大規模運算商,馬斯克回了兩個字:「超超大規模。」(原文是 "Hyper-hyper",比 hyperscaler 還要再加一級。)

要實現這個目標,發射頻率必須瘋狂提升。馬斯克估計需要每年超過一萬次 Starship 發射,大約每小時一次,只需要 20 到 30 艘可運作的 Starship,假設每艘 30 小時翻轉,他說這個頻率其實比全球機場的航班頻率低。

Starship 本身就是極致工程。馬斯克說 Raptor 3 引擎是「有史以來最先進的火箭引擎,但它拼命想爆炸」,發射時整枚火箭產生超過 100 百萬瓩的功率輸出,相當於美國總用電量的 20%,集中在一枚火箭上的一瞬間。「有幾千種可能爆炸的方式,只有一種不會。」

目前 Starship 最大的挑戰是可重複使用的隔熱罩,從來沒有人做過軌道級的可重複使用隔熱罩。Dwarkesh 問隔熱罩是不是本質上就是消耗品,馬斯克回了一句:「你車子的煞車皮也是消耗品,但它可以用很久。」

Dwarkesh 不只聽馬斯克講,他也帶來了自己的反面分析。在訪談前發布的 Notes on Space GPUs 中,他指出 GPU 佔資料中心成本約 70%,能源只佔 15%,就算太空能源再便宜,你還是得把昂貴的晶片送上去。而且 Meta 的 Llama 3 訓練叢集在 16,000 顆 GPU 中大約每 3 小時就有一顆故障,地面有技術人員可以換,軌道上怎麼辦?

馬斯克的回應分幾個層次。訓練留在地面,太空主要做推論,推論對延遲的容忍度較高,透過 Starlink 的雷射通訊下傳數據,50 毫秒的延遲對 AI 代理來說完全可以接受。

至於輻射問題,神經網路對位元翻轉有天然的容錯能力,一個數兆參數的模型翻轉幾個位元根本不影響結果,比傳統的確定性程式碼強多了。散熱方面,晶片可以設計成在更高溫度下運作,把運作溫度提高 20%(以克氏溫度計),散熱片重量就能減半。

3 到 4 年後的限制因素:晶片

馬斯克的時間軸很清楚。現在到一年內,限制因素是電力;3 到 4 年後,假設太空方案解決了電力問題,瓶頸就會轉移到晶片。

數學很簡單。如果目標是 100 百萬瓩的太空運算能力,每顆全尺寸晶片的功率大約 1 千瓦,那就需要 1 億顆晶片,要在一年內生產 1 億顆先進製程晶片,就需要每月數百萬片晶圓的產能。

這就是 TeraFab 的由來。

馬斯克說 TeraFab 的目標是 2030 年達到每月百萬片晶圓的先進製程產能,而且不只做邏輯晶片,還要做記憶體和封裝,完全垂直整合。他認為記憶體的瓶頸其實比邏輯晶片更大。

Dwarkesh 問他怎麼開始做這件事,畢竟晶圓廠是人類製造過最複雜的東西,馬斯克說:「先建一座小廠,看看會怎樣,在小規模犯錯,然後再建大廠。」他補了一句,小廠還沒建好,「但這隻貓藏不住的,到時候會有無人機飛來拍,你在 X 上面就能看到即時施工進度。」

同時他已經跟現有供應商攤牌了,直接跟台積電、Samsung 和 Micron 說:「請更快建更多晶圓廠,我們保證買下全部產出。」他強調 TeraFab 跟現有供應商之間是疊加關係,「是我們加上他們」。

Dwarkesh 追問為什麼這些供應商不願意更快擴產,馬斯克的解釋帶著理解:做記憶體 30 到 40 年的人,經歷過十次繁榮和蕭條週期,「那是很多層的疤痕組織」,每次景氣好的時候都像是永遠不會結束,然後崩盤來了,他們差點破產,所以保守反應是合理的。

他也提到中國,估計 3 到 4 年內就能生產有競爭力的 3 奈米晶片。中國並不缺技術能力,真正的限制因素是被切斷 ASML 的微影設備供應,但這個限制不會永遠有效。

管理方法論:如何持續找到限制因素

訪談中最有啟發性的段落,跟火箭和晶片都沒關係,反而是馬斯克怎麼管理公司。

他說自己有「瘋狂的緊迫感」(maniacal sense of urgency),這個緊迫感會從執行長層級向下傳導到整個公司。但光有緊迫感不夠,關鍵是你得知道要對什麼事情緊迫。

馬斯克的做法是每週跟每家公司做詳細的工程審查,不看投影片、不聽簡報,直接讓做事的工程師逐一報告進度。他特別強調「跨層會議」(skip level meetings):跳過直接部屬,讓更下層的工程師直接說話,而且不允許事前準備精美簡報,「不然你只會看到美化過的版本」。

AI5 晶片的審查更頻繁,每週二和週六各一次,每次 2 到 3 小時。他說自己「腦子裡全是晶片,連做夢都夢到晶片」,甚至可以徒手畫出 AI5 的物理設計架構。

這些高頻率的審查讓他能做到一件事:追蹤每個人在每個時間點的進度,然後在腦中「把這些點畫成一條曲線」,判斷團隊是在收斂到解決方案,還是在發散。

關於截止日期,馬斯克說他設定的通常是「50% 機率可以達成的最積極時程」,意味著一半的時候會遲到。但他有一個好理由:「時程表有氣體擴張定律,你說五年完成,對我來說五年就是無限遠,而且工作量真的會膨脹到填滿五年。」

他只在一種情況下會採取激烈行動:「當我得出結論,在目前的路徑上,成功不在可能的結果集合中。」他舉了 Starlink 的例子,SpaceX 在 Redmond 的 Starlink 團隊做了好幾年但進展太慢,2018 年馬斯克判斷如果不大幅調整就不可能成功,於是動手了。

他的時間分配邏輯也反映同樣的思維。運作良好的事業他幾乎不介入,像 Boring Company 就是自己跑,「如果東西運作良好又在進步,我花時間在上面沒有意義」,但如果某個環節是限制因素,他就大量投入。

他笑說:「諷刺的是,做得很好的團隊不太會看到我,但如果出了問題,他們會看到很多我。」

DOGE 的限制因素:能力與關心程度

訪談進入 DOGE 的段落時,馬斯克的語氣明顯變了,更沮喪,也更直白。

他解釋參與 DOGE 的動機:美國國債的利息支出已經超過軍事預算,超過 1 兆美元。「如果沒有 AI 和機器人,我們 1000% 會作為一個國家走向破產。」

DOGE 的目標其實很有限:爭取足夠的時間,讓 AI 和機器人發展到能解決國債的程度。

然後他開始講故事,社會安全資料庫裡有兩千萬人被標記為「活著」但年齡超過 115 歲,而美國目前最年長的人是 114 歲。「要嘛是出生日期打錯了,要嘛就該標記為死亡。」

他說有人的出生日期是 2165 年,活在未來,卻擁有小企業管理局的貸款,馬斯克半開玩笑地說:「我們似乎把您出生的世紀搞錯了。」

但荒謬個案背後是系統性的漏洞。美國國庫的主電腦每年處理 5 兆筆付款,很多付款居然沒有撥款碼,備註欄也是空白,戰爭部無法通過審計,「因為資訊根本不存在」。

DOGE 團隊做了一個聽起來簡單到不可思議的改革:要求國庫的每一筆付款都必須填寫撥款碼,而且備註欄不能留白。

就這樣。馬斯克估計光是這個改變,每年就能省下 1000 到 2000 億美元。

他用監理站做類比:「你去監理站(DMV)的時候,會覺得那裡是能力的堡壘嗎?現在想像比監理站更糟的東西,因為這是一個能印鈔票的監理站。」

他也分享了 PayPal 時期的經驗,在 PayPal,團隊花了極大力氣才把詐騙率壓到支付總額的 1%,「那需要極高的能力和極高的關心程度」。現在想像一個規模更大的系統,能力更低,關心程度也更低,詐騙率會是多少?美國政府責任署(GAO)在拜登任內估計聯邦詐騙金額約為半兆美元。

推動改革之所以困難,馬斯克說,是因為每次切斷對詐騙者的付款,「他們立刻編出最令人同情的理由要你繼續付,他們不會說『請繼續這個詐騙』,他們會說『你在殺害貓熊寶寶』,但根本沒有貓熊寶寶在死」。

現在,什麼在擋住你?

馬斯克的世界觀可以用一個迴圈來理解:找到限制因素,直接解決它,然後發現下一個限制因素。

現在的限制因素是電力,所以去太空;3 到 4 年後限制因素會變成晶片,所以建 TeraFab;政府的限制因素是能力和關心程度,而這可能是所有限制因素裡最難解的一個。每一步的邏輯都很清楚,瘋狂的是他要同時做這所有事情的規模。

Dwarkesh 在訪談最後問馬斯克有什麼建議給其他人,馬斯克沒有給具體方向,反而說:「做你覺得有意思、有動力去做的事。」然後補了一句:「寧可樂觀而錯,也不要悲觀而對。」

不管你是否買單馬斯克的每一個預測,「持續找到並攻擊限制因素」這個思維框架本身,可能比太空資料中心或 TeraFab 更值得帶走。因為它不需要你有 1.25 兆估值的公司,只需要你願意不斷問自己一個問題:現在,什麼在擋住我?

Read more

AI 大神 Karpathy 的 AI 筆記流,一般人也能做到八成

AI 大神 Karpathy 的 AI 筆記流,一般人也能做到八成

我自己是幾乎不用筆記軟體的,身為一個不聰明的人,最常用的是 Apple 的備忘錄,但我覺得這篇大神的筆記流讓覺得蠻值得一試的,因為其實已經跟我現在用的 AI 工作流有點像,介於有筆記跟沒筆記中間惹 (?) 一般而言,大多數人用 ChatGPT 的方式,像是去便利商店買東西:有問題,問一下,拿到答案,關掉視窗,下次再從零開始。Karpathy 和 Lex Fridman 做的事情完全不同,他們讓 AI 幫自己蓋了一座圖書館,而且這座圖書館會自己長大。這篇文章會拆解這兩位 AI 領域最頂尖的人怎麼用 AI 做筆記,然後告訴你:不用寫程式,你也能做到八成。 先搞懂一件事:你用 AI 的方式可能一直在浪費 想像你手邊有兩個實習生,做事方式完全不同。實習生 A,你每次丟一個問題給他,他回答完就失憶了,下次問類似的問題,他又從頭查一遍。實習生

By Fox Hsiao
公司即智能體:Block 提出管理史上最激進的組織架構

公司即智能體:Block 提出管理史上最激進的組織架構

2026 年 3 月 31 日,Sequoia Capital 合夥人 Roelof Botha 和 Block 創辦人 Jack Dorsey 聯名發表了一篇萬字長文,標題是「From Hierarchy to Intelligence」。這篇文章引用了羅馬軍團、普魯士參謀制度、曼哈頓計畫,論述的核心只有一件事:AI 可以取代兩千年來人類唯一的大規模協調機制,也就是層級管理。 Sequoia 的合夥人通常發布的是市場趨勢報告或投資備忘錄,不是組織管理論文。Botha 這次親自下場,把自己的名字和 Dorsey 並列,代表 Sequoia 認為這件事的重要性超越了單一公司的內部改造。 但時間點很微妙,Block 在 2026 年 2 月剛裁掉了約 40% 的員工,大約四千人,

By Fox Hsiao
Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

上個月寫了一篇 Anthropic 設計主管 Jenny Wen 的訪談分析,她在柏林對著滿場設計師說「設計流程已死」,三個月後回頭看那場演講,覺得內容已經過時了。那篇文章談的是哲學:AI 時代你的專業還值不值錢。 這篇談的是實作,Jenny 最近上了 Peter Yang 的 Podcast,這次她沒有講設計流程死不死的問題,而是直接打開螢幕示範:在流程死掉之後,她每天到底怎麼工作。 每週一早上十點,她的電腦會自動跑出一份簡報,裡面有三個經過驗證的產品方向,附帶線框稿和優先級建議。她不需要開任何會議,不需要手動整理任何資料,這些全部是 Claude Cowork 的排程任務在背景完成的。 Jenny Wen 目前是 Anthropic 的 Cowork 設計負責人,之前在 Figma 帶過 FigJam 和 Slides 的設計團隊。這集 40

By Fox Hsiao
500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

Anthropic 的安全研究員 Nicholas Carlini 在今年三月做了一場演講,開場就說:語言模型對資安的重要性,大約等同於網際網路的發明。 這句話如果從一個 AI 公司的行銷部門說出來,大概會直接被無視。但 Carlini 是學術界出身的漏洞研究員,他在 Google Scholar 上的被引用次數超過五萬次,而且他帶了具體的案例、數字和現場示範,同一個月也上了資安圈知名的 Podcast「Security Cryptography Whatever」,用將近一小時的對談展開技術細節。 綜合這兩個來源,他描述的現實是這樣的:Claude 在幾個月內自主發現了超過 500 個零日漏洞(zero-day,指軟體開發者尚未知曉、因此沒有任何修補的安全漏洞,「零日」意味著開發者從發現到被攻擊之間有零天的反應時間),涵蓋 Linux 核心、Firefox 瀏覽器、Ghost CMS 等重要開源專案。其中部分漏洞已經存在超過 20 年,傳統的模糊測試工具從來沒有找到過。

By Fox Hsiao