Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

Anthropic 設計主管 Jenny:每週一早上十點,AI 已經幫我準備好三個產品方向

上個月寫了一篇 Anthropic 設計主管 Jenny Wen 的訪談分析,她在柏林對著滿場設計師說「設計流程已死」,三個月後回頭看那場演講,覺得內容已經過時了。那篇文章談的是哲學:AI 時代你的專業還值不值錢。

這篇談的是實作,Jenny 最近上了 Peter Yang 的 Podcast,這次她沒有講設計流程死不死的問題,而是直接打開螢幕示範:在流程死掉之後,她每天到底怎麼工作。

每週一早上十點,她的電腦會自動跑出一份簡報,裡面有三個經過驗證的產品方向,附帶線框稿和優先級建議。她不需要開任何會議,不需要手動整理任何資料,這些全部是 Claude Cowork 的排程任務在背景完成的。

Jenny Wen 目前是 Anthropic 的 Cowork 設計負責人,之前在 Figma 帶過 FigJam 和 Slides 的設計團隊。這集 40 分鐘的訪談,和多數「AI 改變工作方式」的討論不同,她沒有在講概念,而是做給你看。

垃圾進,寶藏出

Jenny 對 Cowork 最核心的定位只有一句話:garbage in, treasure out。

她的做法是把大量來自不同管道的原始回饋,全部丟進 Cowork 處理。資料來源包括 UXR 團隊做的使用者訪談逐字稿、內部 Slack 頻道的即時回饋、Reddit 和社群媒體上的使用者評論,以及產品評測。這些資料的格式、長度、深淺都不一樣,有些是結構化的訪談記錄,有些只是同事在 Slack 上丟的一句話。

在 Podcast 上她直接示範了這個流程,先在 Cowork 裡掛載一個存放 UXR 訪談逐字稿的資料夾,然後下了一個指令:讀這個資料夾裡的訪談,同時去社群媒體和 Reddit 搜尋 Cowork 的使用者評論,告訴我最重要的洞察是什麼。

Claude 接到指令後拆出多個子代理(sub-agents),平行處理這些不同來源的資料,同時在背景搜尋網路上的評論和討論。跑完之後會產出一份整理好的洞察文件,按主題分成大約七個不同面向,每一個面向都附帶來源和具體的使用者引述。

到這一步,多數人覺得任務完成了。但 Jenny 的下一步才是重點。

從洞察到產品方向,兩條線平行跑

她拿到洞察報告之後,同時開兩個平行任務。

第一條線是產品方向:根據這份洞察,告訴我應該做哪些功能,幫我排出 P0 和 P1 的優先順序。Claude 會根據洞察的頻率、嚴重程度和可行性,產出一份有結構的功能優先級清單。

第二條線是簡報產出:把這份洞察整理成一份我可以在這週團隊 kickoff 分享的簡報。Claude 會直接產出一個可以下載的簡報檔,存進她指定的資料夾。

兩條線同時跑,不互相阻塞。

Jenny 說她接下來會從功能優先級清單裡挑一個方向,比如「逐步任務進度 UI」,然後再下一個指令:幫我做幾個這個功能的互動原型,用粗略的線框稿風格。Claude 會產出多個不同方向的線框稿讓她比較,她可以從中挑一個帶到 Figma 做精細設計,或者直接拿去 Claude Code 用真實的設計系統元件做成可運作的原型。

她形容自己的工作模式是先讓 AI 出第一刀,然後自己做策展和判斷。「我不會逐字照做 AI 給我的東西,但它幫我跳過了面對空白頁的問題,幫我進化了思考,而不只是卡在那裡。」

每週一早上十點,自動開局

整套流程的最後一步是排程,Jenny 把上面這整個流程設定成 Cowork 的排程任務(scheduled task),每週一早上十點自動執行。

也就是說,Claude 每週一會自動去讀最新的使用者回饋資料夾,搜尋網路上新的評論,產出當週的洞察報告、功能優先級建議和簡報,全部存進指定資料夾。她甚至可以透過 Slack MCP 設定自動把簡報發到團隊頻道。

她走進辦公室的時候,產品方向的第一版已經在那裡等她了。她要做的是審閱、修改和決策,而不是從零開始整理資料。

Cowork 和 Claude Code 的分工

Jenny 的工具選擇邏輯:Cowork 處理幾乎所有事情,Claude Code 只用在需要精細琢磨產品程式碼的時候。

她說在 Anthropic 內部,最早一批 Claude Code 的重度使用者其實是銷售團隊。他們用 Claude Code 來產出潛在客戶名單、準備電話腳本,這些用途已經遠超出「寫程式」的範疇。但這些人現在幾乎全部轉移到 Cowork 了,原因很簡單:有 UI 的工具學習門檻更低,而且更貼近他們本來的工作流程。

對設計師來說也是一樣,Jenny 說她日常的對話、分析、文件產出、簡報製作全部在 Cowork 裡做,只有到了要用真實設計系統元件做 production-level 的收尾時,才會切到 Claude Code。

內部回饋才是最強的訊號

Jenny 在訪談中反覆強調的一個觀點是:Anthropic 最倚重的回饋來源是內部使用者。

這聽起來有點反直覺,多數公司會把外部使用者的聲音當成最重要的訊號,但 Jenny 的邏輯是這樣的:內部使用者願意對你誠實,他們使用產品的強度通常比外部使用者更高(因為就是他們的工作工具),而且後續追問和釐清的成本幾乎為零。外部使用者給的回饋通常是「這個功能對我的工作流程有沒有用」,內部使用者會直接告訴你互動設計和細節哪裡不對。

她說 Cowork 團隊有一個持續運作的 Slack 頻道,專門收集內部回饋,而且團隊會主動去讀內部 Slack 上的討論,把那些最激進的重度使用者當成前哨站。當這些人開始抱怨某個東西,通常代表外部使用者過幾週也會遇到同樣的問題。

這個策略在 Figma 時代她就在用了,她說 Figma 內部的 dog fooding 文化也非常強,而且內部回饋和外部回饋的「高度」不同:內部人會挑互動和細節的毛病,外部人會告訴你功能層面的問題。

Anthropic 怎麼做產品規劃

訪談快結束時,主持人問 Jenny,Anthropic 內部的產品規劃流程是什麼樣的。

她的回答是:每次做規劃,方法都不一樣。

Cowork 團隊用月度規劃,載體就是一個試算表,裡面最多只放大約 12 件事,全部是最高優先級。每一件只有一個 DRI(Directly Responsible Individual,直接負責人),每週回來檢查進度是否在軌道上。

會有一些季度或半年度的方向性討論,通常是其中一個主管說「我覺得我們大概該往這邊走」,但不會是「你們必須做這些事」的指令。

被問到還做不做北極星願景文件,她說去年做過一份,但在 AI 產品的世界裡,模型能力的改變速度太快了,新模型推出的頻率愈來愈高,根本沒有「一年願景」這種東西,更不用說兩年或五年。她現在覺得合理的願景時間軸是三到六個月,而且最好是一個可以讓人操作的原型,不是一份靜態的投影片。

願景文件最大的價值,在她看來,是讓五個可能做重複事情的團隊看到彼此的工作怎麼拼在一起。設計在這裡的角色更像「策展人」:把各方的想法串起來,讓大家看到一條路徑。

不是不做判斷,是判斷的起點變了

Jenny 在訪談裡被問到會不會直接把 Claude 的產出丟給工程師去實作,她的回答很明確:不會。

她說團隊仍然高度依賴自己的判斷力來決定什麼該做、什麼不該做。AI 可以幫你消化大量資訊、提出選項、做出初版,但最後拍板的還是人。她說她覺得建好產品的方式就是讓自己整天泡在使用者回饋的消防水柱裡,泡久了你自然會發展出一種直覺,知道什麼是真的壞掉需要修的,什麼只是雜訊。

AI 改變的是起點,過去你得自己從空白頁開始,整理資料、形成觀點、提出方案。現在 AI 先幫你做完第一輪,你的工作是反應、策展和決策。Jenny 說她已經習慣讓 AI 先出手,然後自己在上面迭代,而且如果現在要她從零開始自己整理回饋、自己排優先級,她覺得會比以前慢很多。

主持人 Peter 笑著說他也一樣:「我也變懶了。所有東西我都讓 AI 先出第一版,然後我再來反應。」

Jenny 接話:「但你不會因此有更多空閒時間。你反而做得更多了,因為你可以同時推進更多事情。」

這大概是 AI 改變知識工作最準確的描述。你沒有變輕鬆,你變得更有效率,然後你用多出來的效率去做更多的事。


相關資料:

Read more

500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

500 個零日漏洞、22 年老 Bug、30 行 Prompt:AI 資安軍備競賽已經開始

Anthropic 的安全研究員 Nicholas Carlini 在今年三月做了一場演講,開場就說:語言模型對資安的重要性,大約等同於網際網路的發明。 這句話如果從一個 AI 公司的行銷部門說出來,大概會直接被無視。但 Carlini 是學術界出身的漏洞研究員,他在 Google Scholar 上的被引用次數超過五萬次,而且他帶了具體的案例、數字和現場示範,同一個月也上了資安圈知名的 Podcast「Security Cryptography Whatever」,用將近一小時的對談展開技術細節。 綜合這兩個來源,他描述的現實是這樣的:Claude 在幾個月內自主發現了超過 500 個零日漏洞(zero-day,指軟體開發者尚未知曉、因此沒有任何修補的安全漏洞,「零日」意味著開發者從發現到被攻擊之間有零天的反應時間),涵蓋 Linux 核心、Firefox 瀏覽器、Ghost CMS 等重要開源專案。其中部分漏洞已經存在超過 20 年,傳統的模糊測試工具從來沒有找到過。

By Fox Hsiao
Tiny 創辦人 Andrew Wilkinson:AI 公司會把軟體業的利潤抽乾

Tiny 創辦人 Andrew Wilkinson:AI 公司會把軟體業的利潤抽乾

Andrew Wilkinson 在 20 歲的時候用銀行裡僅有的 250 美元創業,花了將近 20 年把它變成一個擁有超過 35 間公司、年營收逼近 2 億美元的網路帝國,外號叫「網路界的波克夏海瑟威」。 三月底,他在 X 上發了一篇長推文,說 Anthropic、Google 和 OpenAI 即將從根部把軟體業的利潤抽乾。 一個靠買軟體公司致富的人,公開宣判自己所在的產業即將走向電商化:利潤趨近零、競爭無限大、賺錢越來越難。 從咖啡師到網路波克夏 Wilkinson 的起點跟矽谷創辦人的標準敘事完全不同,他在溫哥華郊區長大,爸爸是建築師,他自己是個在維多利亞市咖啡店打工的大學中輟生,時薪 6.5 加幣。他 15 歲跟一個夏威夷筆友合開了 Apple 新聞網站 MacTeens.com,16

By Fox Hsiao
Google TurboQuant 讓 AI 推理成本崩盤:記憶體省 6 倍、速度快 8 倍

Google TurboQuant 讓 AI 推理成本崩盤:記憶體省 6 倍、速度快 8 倍

你跟 ChatGPT 或 Gemini 聊天的時候,AI 每回一句話都要做一件很耗資源的事:記住你前面講過的所有東西。 這個「記住」的機制叫做 KV cache(key-value 快取),它是大型語言模型在推理時最大的記憶體瓶頸之一。Google Research 發表了一系列壓縮演算法,統稱為 TurboQuant,把這個瓶頸的記憶體佔用縮小 6 倍以上,注意力運算速度提升最高 8 倍,而且在基準測試中達到零精準度損失。 其中 TurboQuant 將在 ICLR 2026 發表,核心元件 PolarQuant 發表於 AISTATS 2026,另一個元件 QJL 則已發表於 AAAI。以下用白話解釋它們在做什麼。 先搞懂 KV cache 是什麼 想像你在跟一個人開會,你們講到第

By Fox Hsiao
一個生成、一個評審,讓兩個 AI 互相對抗才能做出好東西(翻譯文)

一個生成、一個評審,讓兩個 AI 互相對抗才能做出好東西(翻譯文)

原文作者:Prithvi Rajasekaran,Anthropic Labs 團隊成員。 原文連結:https://www.anthropic.com/engineering/harness-design-long-running-apps 【關於這篇文章】 你叫 AI 「自我評估」,它幾乎永遠說「很棒」,就算做出來的東西普通到不行。這是 AI 工程實作上的常見痛點,Anthropic 工程師 Prithvi Rajasekaran 花了幾個月研究這個問題,然後借用深度學習的 GAN(生成對抗網路)概念想出了解法:把「做事的 AI」和「評審的 AI」拆開,讓評審者專門挑毛病,做事者根據回饋迭代,形成有效的品質迴圈。 實際效果是:用一行提示詞就能讓 AI 自主開發功能完整的全端應用程式,從復古遊戲編輯器到瀏覽器版音樂製作軟體都有。這篇文章記錄了框架演進的完整過程、真實的執行數據和花費,以及隨著模型能力提升,

By Fox Hsiao