史詩級組合,Google 創辦人對談諾貝爾獎得主 DeepMind 執行長, 比網路、手機更巨大的時代變革來了!AGI會在2030年前出現?

史詩級組合,Google 創辦人對談諾貝爾獎得主 DeepMind 執行長, 比網路、手機更巨大的時代變革來了!AGI會在2030年前出現?

在 Google I/O 2025 上 《Big Technology Podcast》主持人 Alex Kantrowitz 獨家專訪了兩位在 AI 領域擁有舉足輕重地位的人物:Google DeepMind 執行長 Demis Hassabis 和 Google 共同創辦人 Sergey Brin。這場在熱情觀眾面前展開的對談,不僅深入探討了最先進 AI 模型的前景與挑戰,更觸及了通用人工智慧(AGI)的定義、技術突破方向,乃至於 AI 對未來社會和人類認知的深遠影響。本文將為您整理這場頂尖對談的精華重點。

頂尖模型的潛力與瓶頸:規模化與演算法並進

訪談伊始,主持人 Alex Kantrowitz 便單刀直入,詢問現有頂尖 AI 模型還有多少潛力未被開發,以及為何許多專家認為發展正接近天花板。

Demis Hassabis 坦言,目前的進展確實令人驚豔,Google DeepMind 在主題演講中展示的各項技術突破便是明證。現有技術的潛力已被「榨到極致」(maxing out),但要邁向通用人工智慧(AGI),仍需要數項關鍵的「技術突破」。他強調,DeepMind 手上已有不少新點子,正積極整合到 Gemini 的主要開發流程中。

關於 AI 發展是靠「擴大規模」(scaling)還是「演算法改良」(algorithmic breakthroughs)來推動,是業界長期的討論焦點。Demis 強調這「兩者缺一不可」。他認為必須將現有技術(包括數據量和運算規模)發揮到淋漓盡致,同時也要投入大量精力研究未來的創新演算法,這些演算法可能在半年或一年後,能帶來十倍甚至更高的效能提升,與規模擴展相輔相成。

Sergey Brin 對此表示贊同,他認為演算法和硬體升級都能帶來進步(例如晶片效能、數量、電力、資料中心)。回顧歷史,他以「N 體問題」(N-body problem,模擬多個天體引力作用)為例指出,在某些領域,演算法的進步速度甚至超越了硬體運算能力(摩爾定律)。因此,他傾向認為演算法突破可能比單純的硬體擴展更具影響力。但幸運的是,目前這兩大領域都在快速發展,讓他們能夠同時獲得「雙重效益」。

運算力的需求與「深度思考」:資料中心與即時推理

要支撐 AI 的快速發展,龐大的運算能力是基石。Demis Hassabis 強調,未來確實需要大量增建資料中心,這不僅是為了模型訓練,更是為了支撐模型部署後的「即時推理運算」(real-time inference)。他以 Gemini 2.5 Pro 的超預期需求以及高效能、低成本的 Flash 模型為例,指出這些技術將會被全球廣泛應用,對運算基礎設施的需求極大。

更進一步,他提到像 DeepThink 2.5 Pro 這樣的模型,在處理複雜且高價值的任務時,需要長時間的運算來提升效果。這類的「深度思考」(deep thinking)或「推理模式」(reasoning mode)需要消耗大量晶片資源,是他們正在努力突破的極限。

Sergey Brin 補充道,DeepMind 在「強化學習」(Reinforcement Learning, RL)領域的開創性工作(如 AlphaGo 和 AlphaZero)正是這類「思考模式」價值的最好證明。在遊戲中,具備思考能力的 AI 表現能顯著超越僅靠直覺反應的版本,差距巨大。將這種「思考能力」應用到現實世界,潛在的進步幅度可能會超乎預期。他生動地比喻,這就像「一般人在說話前先想清楚總是有幫助的」,AI 若能如此,實力將大幅提升。而且,未來的 AI 在思考時,還能調用各種「工具」和其他 AI 來優化產出,這將是革命性的突破。

Demis 進一步解釋,「深度思考」或「平行推理」可能是實現 AGI 的關鍵拼圖之一,能提升 AI 的邏輯推演能力。然而,真正的創新,例如提出全新的理論架構或物理學假說,目前的系統還無法做到,這需要新型態的演算架構和精準的「世界模型」(world models)作為基礎。他對 VO3 模型能直觀推斷物理法則(如光線與重力)的能力印象深刻,認為這類模型的精準度需要大幅提升。

AGI 的定義之辯與產業格局:是「人類能力」還是「大腦潛能」?

訪談中反覆出現「通用人工智慧」(AGI)一詞,Alex Kantrowitz 指出,業界現在有聲音認為這個詞已被過度使用而失去意義。Demis 強烈不同意這一點,他認為 AGI 的概念「超級重要」,需要建立明確的共識定義。

他區分了兩種層面的「通用人工智慧」:

  1. 產品面/經濟面 AGI: 指的是 AI 能做到「一般人單獨能做到的事情」,或說「90% 的人都會的事」。這在經濟和產品上具有重大意義,可以視為達到「普通人類的智力水準」。
  2. 理論面 AGI: 這才是他真正關注的。指的是「人類大腦這種架構的潛能極限」,也就是能達到像愛因斯坦、莫札特、居禮夫人等歷史上最傑出人類的成就,這些都是使用同樣的大腦結構實現的。他非常確定,目前的 AI 系統還遠未達到這個理論極限。

Demis 認為,目前對 AGI 的熱潮有些「言過其實」,因為現有系統的表現還不夠穩定、不夠「通用」,很容易被發現漏洞(例如解不出高中數學或玩不好簡單遊戲)。真正的 AGI 應該是在各方面都穩定可靠,需要專家團隊花費數個月才能找到明顯的漏洞,而不是普通用戶幾分鐘就能發現問題。

關於 AGI 的競爭格局,Sergey Brin 認為很難預測會由單一公司獨佔,更可能的情況是「多家競爭者」會「漸進式地」達到相近的水準,形成你追我趕的局面,這反而會激勵更多企業投入。Demis 同意會有多家公司競爭,但他強調「首批系統的開發必須確保安全可靠」,並在此基礎上發展各種安全應用。

AI 需要情感嗎?與自我進化系統的想像

一個有趣的問題是,AI 要成為 AGI 需要有「情感智慧」嗎?AI 自己也能有情感嗎?Demis Hassabis 表示,AI「必須要能理解情感」,但自己是否需要「具備情感」則不確定。他認為這基本上是一個「設計選擇」,理論上沒有理由做不到模擬情感,但也可能不需要,甚至讓 AI 具有人類的情感反應「反而不妥」。這問題目前仍「見仁見智」。他預估達到 AGI 大概還需要五到十年,這段時間足夠研究這些問題。

提到 AI 的「自我進化」,Alex Kantrowitz 對 DeepMind 的 Alpha Evolve 系統(能設計更好的演算法、改進 LLM 訓練)感到震驚,開玩笑問 Demis 是否想引發「智能大爆發」。Demis 笑稱不是失控那種。他認為 Alpha Evolve 是個有趣的初步實驗,結合演化式編程和強大基礎模型是個好方向。他確實希望看到更多這類結合不同方法的「組合系統」。他強調「自我提升」正是重點之一,若能發現自我優化的循環機制,發展速度會更快,就像 AlphaZero 在遊戲領域實現從零開始 24 小時學會並超越人類一樣。但他再次提醒,遊戲規則明確,現實世界更複雜混亂,這種方法能否普遍適用尚待觀察。

回到 Google 與 AI 的意義:個人熱情與時代機遇

主持人 Alex Kantrowitz 巧妙地問 Sergey Brin,是不是因為這場 AI 競賽和突破才「回」到 Google。Sergey 澄清他其實沒有「回來」,但他強烈認為現在是「當個電腦科學家」的「千載難逢的機會」,沒有人應該退休,都應該投入 AI。他形容這是一個「前所未見的重大挑戰」,更是「科技突破的關鍵時刻」,這種「科學突破」甚至比他經歷過的網路和手機時代更令人熱血沸騰,對世界的影響也將更巨大。他目前的工作主要集中在 Gemini 文本模型和多模態研究(如 VO3),享受深入鑽研技術細節的樂趣。

實體世界的互動:智慧助理、機器人與 Google Glass 的經驗

相較於其他公司多展示基於螢幕或語音的 AI 助理,Google DeepMind 的展示(如 Astra)更強調透過鏡頭與物理世界互動。主持人好奇這是否是 Google 的發展方向。Demis 解釋,這是基於 DeepMind 長期以來在「智能代理系統」(intelligent agents)領域的傳承。他認為未來的 AGI 必須具備「全面認知能力」,能理解使用者身處的「實體環境」。

他點出兩個最重要的應用場景:

  1. 智能助理: 不只是綁在電腦手機上,而是能「陪你過日子」,理解周遭環境並協助處理生活大小事。
  2. 機器人: 他一直認為機器人發展的瓶頸在於「軟體的智慧程度」,而不是硬體。現在有了最新的 Gemini 和 VO 技術,即將開發出強大的演算法,讓機器人技術真正發揮潛能,潛力無可限量。

他強調,AGI 最終必須具備這些與實體世界互動的能力,這也是 Gemini 從設計之初就採用「多模態架構」(multimodal architecture)的原因,儘管這使得開發初期難度大增,但現在看來是正確的決策。

Alex Kantrowitz 也藉機詢問了 Google Glass 的經驗,在智慧眼鏡又捲土重來之際,那些經驗如何應用?Sergey Brin 大方承認 Google Glass 犯了不少錯誤,但強調他依然看好這種設計,很高興現在能有看起來更像普通眼鏡的產品。他認為當時「技術還不夠成熟」(AI、晶片尺寸、電池),AI 的發展讓現在的智慧眼鏡能「默默幫上忙」而不會一直打擾,實用性高得多。他也坦承當時自己對消費電子產品的供應鏈、製造成本和量產複雜性了解不足。這次有了超強夥伴一起開發,他覺得是「往前跨了一大步」。Demis 則認為,將「萬用助手」功能整合進智慧眼鏡,這才是真正能讓產品成功的「王牌應用」。

生成內容的品質與倫理:模型崩潰與浮水印

隨著 AI 生成影片等內容越來越逼真,主持人問及令人擔憂的「模型崩潰」(model collapse)問題:當網路上充斥 AI 生成內容時,這些內容若被用於訓練未來的 AI 模型,會不會導致模型品質下降,不如只用真人創作內容訓練的模型?

Demis Hassabis 承認這是個有效的擔憂,但他認為可以解決:

  1. 嚴格把關資料品質: 他們對訓練資料的篩選非常嚴格。
  2. 合成識別碼(SynthID): 至少在 Google DeepMind 所有的生成模型上,他們都會加上一個「AI 生成的隱形浮水印」,這個浮水印非常穩固,已經實施超過 18 個月(圖片和影片都包含)。這不僅能幫助偵測深偽技術和假訊息,也可用於過濾訓練資料。
  3. 控制合成數據的使用: 未來若將 AI 生成的「合成數據」(synthetic data)用於訓練,必須非常小心,確保生成的數據符合原始數據的「分佈」,且品質達到一定水準。他以 AlphaFold 缺乏足夠實驗數據時,先生成初步版本並篩選高置信度的結果用於訓練的經驗為例。目前學界也在積極研究如何結合人工和真實數據。他呼籲其他 AI 媒體公司也能加入防偽浮水印,特別是為了防止假影片和假消息。

展望未來:網路、AGI 時間表與模擬宇宙

在訪談尾聲的快問快答環節,主持人請兩位展望未來:

  • 十年後的網路? Sergey Brin 認為以 AI 的發展速度,十年後的網路乃至整個世界,將「完全超乎我們的想像」,他無法預測。Demis 也認為網路生態會有巨大改變,可能演變成「代理為優先」(agent-centric)的架構,不一定需要人類習慣的視覺介面。
  • AGI 在 2030 年前還是後出現? Sergey Brin 選擇「提早」(before 2030)。Demis 則笑稱這代表他「得回去加把勁工作」。
  • 面試時用 AI 會被錄取嗎? Demis 表示「不會」,至少使用現有 AI 工具可能不會。他認為這還是要看「使用方式」。Sergey Brin 開玩笑說自己從未面試過別人,也沒被面試過,不便評論。
  • 我們活在虛擬世界嗎? Alex 引用了 Demis 關於用指令生成逼真自然景觀的推文。Demis 澄清不是哲學家 Nick Bostrom 提出的那種簡單模擬。他堅信物理的本質是「資訊理論」,我們活在一個「運算宇宙」(computational universe),但這絕非「單純的模擬」。他認為這些系統能模擬自然界的真實結構「很有意思也發人深省」,未來可能會寫篇論文解釋這些現象的意義。Sergey Brin 則以「無限遞迴」的模擬假說反駁(模擬者也被模擬),他認為這種系統總該有個「終止條件」,並且人類中心主義的模擬假說(高等意識操控)可能站不住腳。

Read more

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

人工智慧是否具有生命?這個問題在大型語言模型如 ChatGPT 問世後,反覆縈繞在許多人心中。它能推理、產生未經程式設定的結果,甚至看似擁有創造力。然而,OpenAI 的執行長山姆・阿特曼(Sam Altman)對此提出清晰的見解。他認為,這些系統並不具備生命。 「它們不會主動做任何事,除非你提出要求。」阿特曼說明,這些模型缺乏自主性或內在動機,只是被動地等待指令。他認為,使用者與之互動越久,那種看似生命的幻覺就越可能消散。儘管如此,它們作為工具的強大能力無庸置疑,展現出近似智慧的表現。 幻覺、謊言與數學機率 當人工智慧提供錯誤資訊時,究竟是產生「幻覺」還是蓄意「說謊」?阿特曼解釋,這兩者之間存在根本差異。他以一個早期模型的例子說明:若使用者提問「塔克・卡爾森總統是哪一年出生?」模型可能會編造一個年份,而非指出此人從未擔任總統。 這並非出於欺騙的意圖,而是一個基於訓練資料的數學機率問題。「因為在訓練過程中,直接否定使用者的前提,並不是最可能出現的回應。」模型會假設使用者的提問基於事實,然後在其龐大的資料庫中,

By Fox Hsiao
Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

軟體公司 Palantir 執行長亞歷克斯·卡普(Alex Karp)是一位同時擁有忠實支持者與激烈抗議者的科技領袖。他的公開談話,不僅僅是關於技術或商業,更深刻地反映一種獨特的世界觀,一種關於建立、競爭與西方價值體系的哲學。在這場訪談中,卡普對環繞著他與公司的各種爭議,提出一套完整且充滿挑戰性的論述。 面對為何有人支持、有人反對的提問,卡普將其支持者描繪為「實踐者」(builders)。他認為,這群人懂得欣賞成果,他們衡量一項成就的標準,是基於其是否能超越外界普遍預期的懷疑與折扣。卡普直言:「實踐者們看見那些極具天賦的人,會對所有言論打上折扣,並根據超越這個折扣率的表現來衡量成就。」 Palantir 的發展歷程充滿反直覺的挑戰,從商業模式到公開形象,始終不被看好,但最終以卓越的成果贏得這群人的信賴。 另一方面,他將抗議者歸因於一種由學術機構灌輸的「失敗者崇高論」。他認為,許多抗議者深信自己無法進入科技的核心圈,因而轉向一種假設失敗者更高尚的哲學模型。卡普批判道:「當你認為自己處於失敗的那一方,你就會假設道德不可能站在你的對立面。」他認為,這種思維源於部分學術機構,這些機構將美

By Fox Hsiao
馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

在 2025 ALL-IN 訪談中,伊隆・馬斯克分享他對旗下數個野心勃勃計畫的最新進展與未來藍圖,從特斯拉(Tesla)的人形機器人、xAI 的通用人工智慧,到太空探索公司 SpaceX 的星艦與星鏈計畫,勾勒出一幅以科技突破確保人類文明永續發展的宏偉願景。 Optimus:定義未來的勞動力 Musk 堅信,Optimus 人形機器人將是人類的巔峰之作,並將其形容為人類歷史上最偉大的產品。目前,開發團隊正在進行第三版設計的定稿工作。他分析,要成功打造一款能普及的通用型人形機器人,必須克服三大挑戰:擁有與人類相仿的靈巧雙手、一個能理解並與現實世界互動的人工智慧心智,以及大規模生產的能力。 在這些挑戰中,又以手部的設計最為艱鉅。人手經過長時間演化,本身就是一台極度精密的儀器,能執行各種複雜任務。他強調,要創造一個通用的人形機器人,就必須解決手部的問題。 另一個重大障礙是供應鏈的匱乏。Musk 表示,由於現今市場根本不存在適用於人形機器人的關鍵零組件,團隊必須從頭設計與製造。他無奈地說,這些關鍵零件根本買不到,因為它們在市面上並不存在。 之所以堅持採用人形設計,背後有其務實的考量

By Fox Hsiao
哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

生成式人工智慧(Generative AI)的浪潮正席捲全球,其對勞動市場的衝擊成為各界關注的焦點。當前的討論多半圍繞在工作機會的增減與技能需求的轉變,然而,一份來自哈佛大學的最新研究,透過分析大規模的美國履歷與職缺數據,揭示一個更細微卻極其關鍵的趨勢:生成式AI的導入,可能正在不成比例地影響資淺員工的就業機會,形成一種「偏重資歷的技術變革」(seniority-biased technological change)。 這份名為《生成式AI作為偏重資歷的技術變革》的初步研究報告,由研究者Seyed M. Hosseini與Guy Lichtinger共同撰寫。他們檢視自2015年至2025年間,涵蓋近6200萬名工作者、分屬28萬5000家美國企業的履歷資料,以及超過2.45億筆的職缺公告,試圖描繪出AI技術擴散下,企業內部人力結構的真實變化。 數據揭示的關鍵轉折點 研究的核心發現,在於企業導入AI前後,不同資歷員工的僱用趨勢出現顯著分歧。過往從2015年到2022年中期,無論是資深或資淺員工,其就業增長率大致維持同步。然而,一個明確的轉折點出現在2023年第一季,這恰好是生成

By Fox Hsiao