公司即智能體:Block 提出管理史上最激進的組織架構

公司即智能體:Block 提出管理史上最激進的組織架構

2026 年 3 月 31 日,Sequoia Capital 合夥人 Roelof Botha 和 Block 創辦人 Jack Dorsey 聯名發表了一篇萬字長文,標題是「From Hierarchy to Intelligence」。這篇文章引用了羅馬軍團、普魯士參謀制度、曼哈頓計畫,論述的核心只有一件事:AI 可以取代兩千年來人類唯一的大規模協調機制,也就是層級管理。

Sequoia 的合夥人通常發布的是市場趨勢報告或投資備忘錄,不是組織管理論文。Botha 這次親自下場,把自己的名字和 Dorsey 並列,代表 Sequoia 認為這件事的重要性超越了單一公司的內部改造。

但時間點很微妙,Block 在 2026 年 2 月剛裁掉了約 40% 的員工,大約四千人,理由是「智能工具讓更小的團隊能做更多事」。一個月後,這篇論文上線。

Sequoia 的速度論

Botha 在文章開頭寫了一句話,「在 Sequoia,我們觀察到速度是新創成功的最佳預測指標。」這句話看起來像是客套的開場白,但放在 Sequoia 近年的投資論述裡,它其實是一個篩選標準。

Botha 的履歷本身就是一條線索,他在 2000 年擔任 PayPal 的財務長,2003 年加入 Sequoia,主導投資了 YouTube、Square、MongoDB 等公司。他和 Dorsey 的關係從 Square 時期就開始了,而且他目前是 Block 的首席獨立董事。這篇文章的兩位作者,不只是投資人和創辦人的關係,Botha 在 Block 的董事會裡有治理責任。

Sequoia 這幾年的 AI 投資論述反覆強調同一件事,小團隊加上 AI 工具可以超越大組織。他們稱之為「豐裕時代」(Age of Abundance),預測 AI 會催生數千個垂直應用,而這些應用的開發團隊可能只需要幾十人。

但如果小團隊能超越大組織,那大組織的瓶頸在哪裡?Dorsey 和 Botha 的回答是層級管理本身。每多一層管理,資訊就多一次損耗,決策就慢一拍,而這個損耗在過去兩千年來沒有任何技術能解決。

在這個脈絡下,Block 裁掉 40% 員工就有了不同的解讀。這背後其實是在測試一個假設:如果 AI 能取代中間管理層的協調功能,那公司根本不需要這麼多人。Botha 在裁員期間買了超過 2,500 萬美元的 Block 股票,用行動押注這個假設。

從羅馬帳篷到你的組織圖

Dorsey 和 Botha 的論文花了將近一半的篇幅回顧組織管理史,這個選擇本身就說明了他們的企圖心:他們想證明自己要解決的是一個兩千年來懸而未決的根本限制,遠遠超出管理學的小修小補。

羅馬軍團的最小單位是「帳篷小隊」(contubernium),八個士兵共用一頂帳篷、一套裝備、一頭驢子,由一名十人長帶領。十個帳篷小隊組成一個百人隊,六個百人隊組成一個大隊,十個大隊組成一個軍團,大約五千人。每一層都有一個指揮官,負責從下方彙整資訊、從上方傳達決策。這套 8 → 80 → 480 → 5,000 的結構,本質上是一個資訊路由協定,而它的設計限制只有一個:一個人能有效管理的人數大約在三到八人之間。

一千八百年後,普魯士在被拿破崙打到全軍覆沒之後重建了軍隊。改革者沙恩霍斯特和格奈澤瑙的核心洞察是:不能依賴頂端的天才。他們創建了參謀制度,一群專門負責規劃作戰、處理情報、協調單位的軍官,用沙恩霍斯特的話說,目的是「為無能的將軍提供他們可能缺乏的才能」。這就是中間管理層的原型,比「中間管理層」這個詞早了一個多世紀。

到了 1850 年代,美國鐵路把軍事組織的邏輯搬進了商業世界。紐約和伊利鐵路的 Daniel McCallum 畫出了史上第一張組織圖,因為非正式的管理方式已經撐不住,火車相撞在殺人。McCallum 的組織圖形式化了跟羅馬軍團一樣的邏輯:分層的權責、明確的匯報線、結構化的資訊流。

從羅馬帳篷到今天的跨國企業,底層限制始終沒變:管理幅度決定了你需要多少層級,而層級越多,資訊流動越慢。

公司即智能體

Dorsey 和 Botha 認為,大多數公司現在用 AI 的方式是「給每個人配一個副駕駛」,讓既有的組織結構運作得稍微好一點。Block 想做的事不一樣,把公司重組為一個「智能體」(intelligence),用 AI 取代層級管理的協調功能。

他們提出了四層架構,從底層的金融原子元件到頂層的使用者介面,每一層都對應著傳統組織裡的一個功能。

第一層是能力層(capabilities),包含支付、借貸、發卡、薪資處理等金融功能。它們的定位是原子級的積木,有可靠性、合規性和效能指標,但沒有自己的使用介面。每一項都需要監管許可和網路效應,取得和維護的門檻極高。

第二層是世界模型(world model),分成兩面。公司模型記錄的是公司自身的運作狀態:誰在做什麼、什麼被卡住了、資源怎麼分配,取代的是過去中間管理層做的資訊傳遞工作。客戶模型則是用交易數據建構的即時畫像,Block 同時擁有買方(Cash App)和賣方(Square)的數據,等於看到每筆交易的兩端。用 Dorsey 的話說,「錢是世界上最誠實的訊號」,人會在問卷上說謊、會忽略廣告、會放棄購物車,但花錢、存錢、借錢的行為是真的。

第三層是智能層(intelligence layer),負責把能力層的積木組合成特定客戶在特定時刻需要的解決方案。文章舉了一個例子:一家餐廳的現金流在季節性低潮前開始緊縮,而模型已經見過這種模式,智能層就會自動組合一筆短期貸款,調整還款時間表,在商家還沒想到要找融資之前主動推送方案。沒有產品經理決定要做這個功能,能力本來就在,智能層辨識出時機然後組合。

第四層是介面層(interfaces),Square、Cash App、Afterpay 等都是交付表面,真正創造價值的是模型和智能層。

在人的角色上,Block 把傳統的層級架構壓縮成三種角色。個人貢獻者(IC)是深度專家,靠世界模型獲得過去需要主管提供的脈絡,可以自主決策。直接負責人(DRI)擁有特定的跨團隊問題,比如「某個客群的流失率」,有 90 天的期限和完整的資源調配權限。球員教練(Player-Coach)取代傳統主管,一邊寫程式碼一邊帶人,不花時間在狀態會議和對齊會議上,因為世界模型已經處理了對齊的工作。

為什麼之前每次都失敗

打破層級管理的嘗試,Block 絕對不是第一家,過去二十年至少有四個著名的實驗,每一個都帶著改變組織管理的雄心出發,最後都退回了某種形式的層級制。

Spotify 在 2012 年發表了「小隊模型」(Squad Model),把工程師組成自主的小隊,再用部落、分會、公會的結構串聯。這套模型在發表時就被包裝成 Spotify 的秘密武器,但前員工 Jeremiah Lee 後來指出,這個模型從來沒有真正落地過。當 Spotify 在十八個月內從一千人膨脹到三千人,小隊之間的重複和不一致開始失控,公司最終悄悄回到了傳統的管理結構。模型的幾位原創者全部離開了公司。

Zappos 走得更遠,執行長 Tony Hsieh 在 2013 年引入合弄制(Holacracy),取消所有管理職稱,2015 年發出最後通牒:接受合弄制,或者拿遣散費走人。18% 的員工直接選擇離開,當年的總離職率飆到 30%,而正常年份只有 12%。Fortune 最佳企業的員工調查中,58 項指標有 48 項分數下降,Zappos 在八年來第一次跌出榜單。員工反映每週要多花五個小時開會才能搞懂新系統。到了 2020 年,Zappos 悄悄把管理層請了回來。

Valve 的扁平結構更像是一個理想主義的神話,員工手冊上寫著「沒有老闆」,但前員工 Jeri Ellsworth 的描述更接近現實:「就像高中,理論上每個學生都平等,但總有幾個受歡迎的小孩掌握了權力。」表面上沒有層級,實際上是一個隱藏的權力結構,而且在員工超過三百人之後就越來越難運作。

海爾的「人單合一」模式是四個案例中成效最好的,執行長張瑞敏從 2005 年開始把公司拆成四千多個微型企業,每個都有獨立的損益責任。海爾聲稱自 2012 年以來年均成長 23%,遠高於傳統管理企業的 1.1%。但這個模式花了七年以上才真正運轉,而且它深植於中國製造業的文化土壤,目前還沒有成功複製到其他產業或地區的案例。

四個實驗都碰上了同一堵牆,它們試圖用文化、流程或制度來取代層級的協調功能,但沒有一個擁有真正能執行這些功能的技術。Dorsey 和 Botha 的論點是,AI 是第一個夠格的替代品。

交易數據是護城河還是特例

Block 的論文有一個容易被忽略的前提,這套架構要運作,需要一個夠好的「世界模型」,而世界模型的品質取決於數據的密度和誠實度。

Block 的條件確實很獨特,它是遠端優先的公司,所有的決策、討論、程式碼、設計都以數位紀錄的形式存在,這是公司世界模型的原料。同時它擁有交易數據的兩端,買方的 Cash App 和賣方的 Square,看到的是資金流動的完整圖像,而且這個訊號每天都在複利式地累積。

但能同時具備這些條件的公司,放眼全球屈指可數。一家實體零售商的員工每天在門市和倉庫工作,大量的協調發生在對話、眼神和經驗判斷中,這些訊號不會自動變成機器可讀的數據。一家醫院的護理團隊需要根據病患的即時狀態做出判斷,而這些判斷涉及的信任、倫理和文化脈絡,目前的 AI 遠遠無法處理。

還有一個不能忽略的時機問題,Block 在發表這篇論文的一個月前裁掉了 40% 的員工,而 Botha 在裁員期間買了超過 2,500 萬美元的 Block 股票。這不代表論文的論點有問題,但確實讓它的動機變得更複雜:它同時是一份知識論述、一份裁員的知識辯護,以及一份投資信心的公開展示。

文章本身坦承,「Block 處於這個轉型的早期階段,這將是一個困難的過程,有些部分可能會先失敗才會成功。」這句話的誠實值得肯定,但也意味著目前沒有人知道這套理論在實踐中到底行不行。

你的公司有沒有一個值得建模的世界

Dorsey 和 Botha 這篇論文最有價值的地方,或許是它逼每一家公司回答的那個問題:你的公司真正理解什麼?這個理解每天都在加深嗎?

如果答案是「沒有」,那 AI 對你來說就只是降本增效的工具,裁掉一些人、省幾季的成本,最後被更聰明的東西取代。如果答案是一個持續加深的理解,AI 就能放大它,讓它變成複利式的競爭優勢。

Block 的實驗值得長期追蹤,因為當 Sequoia 的合夥人開始用「組織能不能被 AI 重構」來評估一家公司的時候,這個標準遲早會擴散到整個創投生態。對創業者來說,與其煩惱組織圖怎麼畫,更該問的是自己的公司有沒有一個值得建模的世界。


相關資料

Read more

Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

上個月寫了一篇 Anthropic 設計主管 Jenny Wen 的訪談分析,她在柏林對著滿場設計師說「設計流程已死」,三個月後回頭看那場演講,覺得內容已經過時了。那篇文章談的是哲學:AI 時代你的專業還值不值錢。 這篇談的是實作,Jenny 最近上了 Peter Yang 的 Podcast,這次她沒有講設計流程死不死的問題,而是直接打開螢幕示範:在流程死掉之後,她每天到底怎麼工作。 每週一早上十點,她的電腦會自動跑出一份簡報,裡面有三個經過驗證的產品方向,附帶線框稿和優先級建議。她不需要開任何會議,不需要手動整理任何資料,這些全部是 Claude Cowork 的排程任務在背景完成的。 Jenny Wen 目前是 Anthropic 的 Cowork 設計負責人,之前在 Figma 帶過 FigJam 和 Slides 的設計團隊。這集 40

By Fox Hsiao
500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

Anthropic 的安全研究員 Nicholas Carlini 在今年三月做了一場演講,開場就說:語言模型對資安的重要性,大約等同於網際網路的發明。 這句話如果從一個 AI 公司的行銷部門說出來,大概會直接被無視。但 Carlini 是學術界出身的漏洞研究員,他在 Google Scholar 上的被引用次數超過五萬次,而且他帶了具體的案例、數字和現場示範,同一個月也上了資安圈知名的 Podcast「Security Cryptography Whatever」,用將近一小時的對談展開技術細節。 綜合這兩個來源,他描述的現實是這樣的:Claude 在幾個月內自主發現了超過 500 個零日漏洞(zero-day,指軟體開發者尚未知曉、因此沒有任何修補的安全漏洞,「零日」意味著開發者從發現到被攻擊之間有零天的反應時間),涵蓋 Linux 核心、Firefox 瀏覽器、Ghost CMS 等重要開源專案。其中部分漏洞已經存在超過 20 年,傳統的模糊測試工具從來沒有找到過。

By Fox Hsiao
Tiny 創辦人 Andrew Wilkinson:AI 公司會把軟體業的利潤抽乾

Tiny 創辦人 Andrew Wilkinson:AI 公司會把軟體業的利潤抽乾

Andrew Wilkinson 在 20 歲的時候用銀行裡僅有的 250 美元創業,花了將近 20 年把它變成一個擁有超過 35 間公司、年營收逼近 2 億美元的網路帝國,外號叫「網路界的波克夏海瑟威」。 三月底,他在 X 上發了一篇長推文,說 Anthropic、Google 和 OpenAI 即將從根部把軟體業的利潤抽乾。 一個靠買軟體公司致富的人,公開宣判自己所在的產業即將走向電商化:利潤趨近零、競爭無限大、賺錢越來越難。 從咖啡師到網路波克夏 Wilkinson 的起點跟矽谷創辦人的標準敘事完全不同,他在溫哥華郊區長大,爸爸是建築師,他自己是個在維多利亞市咖啡店打工的大學中輟生,時薪 6.5 加幣。他 15 歲跟一個夏威夷筆友合開了 Apple 新聞網站 MacTeens.com,16

By Fox Hsiao
Google TurboQuant 讓 AI 推理成本崩盤:記憶體省 6 倍、速度快 8 倍

Google TurboQuant 讓 AI 推理成本崩盤:記憶體省 6 倍、速度快 8 倍

你跟 ChatGPT 或 Gemini 聊天的時候,AI 每回一句話都要做一件很耗資源的事:記住你前面講過的所有東西。 這個「記住」的機制叫做 KV cache(key-value 快取),它是大型語言模型在推理時最大的記憶體瓶頸之一。Google Research 發表了一系列壓縮演算法,統稱為 TurboQuant,把這個瓶頸的記憶體佔用縮小 6 倍以上,注意力運算速度提升最高 8 倍,而且在基準測試中達到零精準度損失。 其中 TurboQuant 將在 ICLR 2026 發表,核心元件 PolarQuant 發表於 AISTATS 2026,另一個元件 QJL 則已發表於 AAAI。以下用白話解釋它們在做什麼。 先搞懂 KV cache 是什麼 想像你在跟一個人開會,你們講到第

By Fox Hsiao