NVIDIA 的「物理圖靈測試」,用 AI 生成影片訓練機器人?它們很快就能夠為你打掃煮飯

NVIDIA 的「物理圖靈測試」,用 AI 生成影片訓練機器人?它們很快就能夠為你打掃煮飯

在 AI 領域,我們常聽說圖靈測試(Turing Test)是衡量機器能否展現與人類無異對話能力的里程碑。如今,大型語言模型(LLM)似乎已悄悄地通過了這個測試,但大家對其突破已習以為常,甚至會因為語音助理慢了幾秒或程式碼沒被完全除錯而抱怨連連。 NVIDIA AI 研究總監、身為廣受矚目人形機器人專家 Jim Fan 指出,當前業界對 LLM 的驚人進步視為「只是又一個平常的星期二」(just yet another Tuesday),這反映了我們對文字世界 AI 的標準已大幅提高。

然而,當我們將目光轉向現實世界,讓機器人進行物理操作時,會發現挑戰巨大得多。 Jim Fan 在演講中提出了一個引人深思的概念:「物理圖靈測試 (Physical Turing Test)」。這個測試的想像情境是:如果你回家後,看到雜亂的房間被整理得乾淨俐落,甚至還準備了一頓浪漫的燭光晚餐,而你無法分辨這是由真人還是機器人完成的,那代表這個機器人通過了物理圖靈測試。

但現實呢?看看那些連站起來都困難的人形機器人,或是嘗試為主人做早餐卻搞得一團亂的機器手臂(雖然辨識出牛奶值得給 A-,但湯匙餵食的確是 VIP 等級的體驗),我們離「物理圖靈測試」還差得很遠。

實體 AI 的最大瓶頸:資料飢渴症

為什麼物理圖靈測試如此困難? Jim Fan 點出了核心問題:資料。LLM 研究人員抱怨網際網路資料快被用完,稱其為 AI 的「化石燃料」。但對機器人學家來說,我們甚至連這種「化石燃料」都沒有。真實世界的機器人資料——例如關節的精確控制訊號、連續的運動軌跡——是無法從網路上抓取的。這些資料必須透過昂貴且耗時的「遙控操作」(teleoperation)方式收集,也就是由真人穿戴感應裝置來遠端控制機器人,手把手地教它完成任務(例如從烤麵包機拿出麵包再淋上蜂蜜)。

這種方式極度沒效率,Jim Fan 將其比喻為燃燒「人類燃料」(human fuel),比化石燃料還稀缺,每天每個機器人頂多運作 24 小時,而且真人會累,機器人更容易壞。這嚴重限制了機器人學習的多樣性和規模,形成了一個巨大的資料瓶頸。

模擬世界的核能:突破資料荒的救星

要突破這個瓶頸,唯一的出路是「模擬 (Simulation)」,找到機器人學的「核能」。Jim Fan 介紹了NVIDIA為此推進的三階段模擬策略:

  1. 模擬 1.0:數位分身 (Digital Twin)
    • 概念:在虛擬世界中建立機器人和環境的一對一精確拷貝。
    • 方法:利用高效能的向量化物理引擎,可以在單一 GPU 上模擬上萬個環境,速度比現實世界快上萬倍。結合「領域隨機化 (Domain Randomization)」技術,在模擬時隨機改變重力、摩擦力、物體重量等參數,迫使 AI 在各種條件下都能執行任務。
    • 優勢:極快的訓練速度。訓練出的模型可以直接零次轉移 (zero-shot) 到真實世界機器人上,無需微調。例如,訓練機械手在模擬中轉筆,訓練機器狗在球上平衡,訓練人形機器人行走(10 年訓練量在 2 小時模擬完成)。一個僅有 150 萬參數的神經網路就足以捕捉人形機器人全身平衡和敏捷動作的複雜控制。
    • 限制:數位分身需要人工精確建模,建立複雜環境耗時費力,模擬的多樣性仍然受限於人工設定的範圍。
  2. 模擬 2.0:數位表親 (Digital Cousin)
    • 概念:開始在模擬中引入生成式 AI。雖然不像數位分身那樣是精確拷貝,但能產生足夠多樣的環境和場景,「像數位分身的表親」。
    • 方法:利用 3D 生成模型生成場景中的各種物品(如家具),使用擴散模型(Diffusion Model)生成紋理貼圖,利用 LLM 根據文字提示生成場景佈局的 XML 檔案。 NVIDIA 的 Robocasa 框架就是例子,可以生成大規模、包含日常任務的模擬場景,除了機器人本身,其他幾乎都是生成的。
    • 優勢:顯著增加了環境和任務的多樣性。可以在模擬中進行遙控操作,然後將軌跡變異、擴展到更多生成的環境中,實現 N (環境數) * N (動作變異數) 的資料乘法爆炸。雖然畫面真實度可能不及真實世界,但「足夠接近」。
    • 限制:相較於 1.0,運行速度可能較慢,仍部分依賴傳統渲染管線。
  3. 模擬 3.0 (世界模型 / 擴散模型):數位遊牧者 (Digital Nomad)
    • 概念:直接利用生成式模型(特別是影片擴散模型)來模擬物理世界的互動,擺脫對傳統物理引擎的依賴。
    • 方法:以大量真實世界影片(數百萬段網路影片)訓練影片擴散模型,使其學會模擬各種複雜的物理現象(如流體、軟體變形)。 NVIDIA 的研究表明,只需用真實機器人實驗室收集的少量領域特定資料微調通用的影片生成模型,就能讓模型學會模擬機器人的精確互動。
    • 優勢:極致的多樣性。影片擴散模型能模擬任何它在訓練資料中「看過」或「想像」的互動,不受傳統物理引擎的限制(例如模擬機器人彈烏克麗麗,即便硬體不支援,模型也能「畫」出來)。這就像讓機器人漫遊在影片模型的「夢境空間」(dream space)——一個壓縮了海量網路影片的多元宇宙,實現「萬物、處處、一時」(Everything Everywhere All at Once) 的互動學習。僅僅一年時間,影片生成模型在物理真實度上(例如變形麵條)的進步,就超越了傳統圖學 30 年的發展。
    • 速度:目前運行可能較慢,但具備隨算力呈指數級成長的巨大潛力。

具身縮放定律與 GR00T N1

Jim Fan 總結,傳統模擬(1.0)的速度快但受限於多樣性,而生成式模擬(2.0/3.0)雖可能起步慢但能隨算力呈指數級擴展其多樣性。這兩種模擬方式的結合,將是為下一代機器人系統提供龐大訓練資料的「核能」。這也意味著,對 AI 算力的需求只會越來越大,那些認為算力問題會迎刃而解的人需要再三思考。

藉由這些模擬技術產生的海量資料,NVIDIA 開發了「視覺語言行動模型 (Vision Language Action Model, VLA)」,能接收圖像和語言指令,並直接輸出機器人的運動控制訊號。今年 GTC 大會上黃仁勳發表的 GR00T N1 模型就是一個實例,它能在真實世界執行抓取香檳、工廠零件甚至多機器人協調等任務。 GR00T N1 已開源,NVIDIA 也計劃將未來的模型開源,以普及「實體 AI」。

物理 API:通往新世界的入口

實體 AI 的最終目標,是實現「物理 API (Physical API)」。想像一下,就像 LLM API 讓軟體能夠操作數位世界的位元 (bits) 一樣,物理 API 將賦予軟體操作現實世界的原子 (atoms) 的能力。透過這個 API,你可以讓軟體直接控制物理致動器,改變物理世界的狀態。

這將催生全新的經濟模式和應用場景:

  • 物理提示 (Physical Prompting):不再只用文字,而是結合視覺和語言等方式更直觀地教導和指示機器人。
  • 物理應用商店和技能經濟 (Physical App Store & Skill Economy):米其林大廚不必親自下廚,他可以「教導」機器人他的獨家烹飪技巧,並將這個技能作為服務販售,讓任何擁有機器人的家庭都能享受到米其林級的晚餐。

Jim Fan 引用黃仁勳的話再次強調,未來「每一個會移動的東西都將是自主的」。總有一天,你回家會看到乾淨的沙發和燭光晚餐,伴侶對你微笑而不是責備你沒做家事——而那一天,我們通過物理圖靈測試的時刻,很可能就像 LLM 通過圖靈測試一樣,在世人眼中「只是又一個星期二」。這正是驅動 Jim Fan 和團隊每天努力的動力。

圖靈測試 75 年來首次被AI成功突破,GPT-4.5如何辦到的 ?
圖靈測試由計算機科學先驅艾倫·圖靈於1950年提出,被視為判斷機器是否具有智能的重要方法。測試的核心是一場「模仿遊戲」:一位人類審問者同時與兩位受試者(一位人類和一位機器)進行文字對話,雙方都嘗試說服審問者自己是真正的人類。如果審問者無法可靠地辨別出誰是人類,那麼機器就被認為通過了測試。 75年來,許多系統嘗試挑戰圖靈測試,但都未能成功。直到現在,研究人員發現大型語言模型(LLM)終於突破了這道門檻。 研究方法與突破性發現 研究團隊評估了四種系統:ELIZA(一種1960年代的規則型聊天機器人)、GPT-4o、LLaMa-3.1-405B和GPT-4.5,讓它們與真人一起參與標準的三方圖靈測試。測試參與者有5分鐘時間與系統和真人同時對話,最後判斷哪一方是人類。 研究結果令人驚訝: 1. GPT-4.5:當被提示採用特定人物角色時,它被判斷為人類的比率高達73%,顯著超過了真人被識別的機率(27%)。 2. LLaMa-3.1-405B:同樣提示詞下,被判斷為人類的比率達56%,與真人不相上下。 3. 對照組:未經特殊提示詞的GPT-4o和ELIZA則表現平平,僅有21

Read more

Anduril YFQ-44A 半自主無人機完成首次飛行

Anduril YFQ-44A 半自主無人機完成首次飛行

10 月 31 日,一架編號 YFQ-44A 的戰鬥機在美國某處完成首飛。這不是什麼大新聞,美國每年都有新飛機試飛。但這次不一樣的地方在於,從第一次飛行開始,就沒有人在操控它。不是遙控,不是有人在地面握著操縱桿。飛機自己起飛、自己飛行、自己降落。操作員只是在旁邊看著,確保它不要做出什麼瘋狂的事。 歡迎來到半自主戰鬥機的時代。 556 天,從白紙到起飛 這架飛機叫 YFQ-44A,製造商是 Anduril,從決定要做這架飛機,到它真的飛上天,Anduril 花了 556 天。 這有多快?讓我們對比一下,F-35 Lightning II 從概念到首飛約 10 年,F-22 Raptor 從概念到首飛約 9 年,波音 787 從啟動到首飛約 6

By Fox Hsiao
亞馬遜股價暴漲 13% ,CEO 霸氣宣言:「我們增加產能有多快,變現就有多快。」

亞馬遜股價暴漲 13% ,CEO 霸氣宣言:「我們增加產能有多快,變現就有多快。」

2025年10月30日美股盤後,亞馬遜股價暴漲 13%。對於一家市值超過 2 兆美元的科技巨頭來說,單日這樣的漲幅並不常見。上一次出現類似幅度,還是在疫情初期線上零售需求爆發的時候。 但這次讓市場興奮的,不只是亮眼的財報數字,更是一個充滿矛盾的策略組合:一邊宣布裁員約 3 萬人、支付 18 億美元遣散費;一邊加碼 1250 億美元的 AI 資本支出,並承諾 2026 年繼續追加投資。 市場為什麼相信這個矛盾的策略?答案藏在 CEO Andy Jassy 在財報電話會議上那句霸氣的宣言裡:「我們增加產能有多快,變現就有多快。」 AWS 雲端服務營收年增 20.2%,創下 11 季以來新高。這個數字背後的戰略意義,遠超過表面看到的百分比。 過去三年,AWS 在 Google Cloud 和 Microsoft

By Fox Hsiao
29 個月年營收破億美金,在 AI 時代打造產品:HeyGen 的聖經心法

29 個月年營收破億美金,在 AI 時代打造產品:HeyGen 的聖經心法

在 AI 影片生成領域的獨角獸公司 HeyGen 達成「年營收一億美元」的里程碑之際,其創辦人兼 CEO Joshua Xu 分享了這份文件背後的故事: 「在內部,我們稱之為我們的『聖經』——這個系統指引我們從一百萬美元成長到一億美元的營收。它源自無數次的團隊討論、實驗以及一路走來的經驗教訓… 我們分享它,不是因為它完美,而是因為它確實有效。這就是我們如何交付客戶價值、以比世界變化更快的速度學習,並持續駕馭浪潮的方式。」 在人工智慧(AI)浪潮席捲全球的今天,遊戲規則已經徹底改變。過去那種穩紮穩打、耗時數年的軟體開發模式已然失效,因為技術的根基每隔幾個月就會發生顛覆性的變化。如果你感覺追不上、感到焦慮,或是想知道頂尖團隊如何在這樣的混亂中脫穎而出,那麼這篇文章就是為你準備的。 這不只是一份開發指南,更像是一本經過實戰驗證的「戰時宣言」。它詳細闡述了 HeyGen 如何擁抱不確定性、將其轉化為競爭優勢,並以驚人的速度學習、交付和迭代,在短短 29 個月內將年營收從一百萬美元推升至一億美元。 無論你是產品經理、工程師、設計師,

By Fox Hsiao