史詩級組合,Google 創辦人對談諾貝爾獎得主 DeepMind 執行長, 比網路、手機更巨大的時代變革來了!AGI會在2030年前出現?

在 Google I/O 2025 上 《Big Technology Podcast》主持人 Alex Kantrowitz 獨家專訪了兩位在 AI 領域擁有舉足輕重地位的人物:Google DeepMind 執行長 Demis Hassabis 和 Google 共同創辦人 Sergey Brin。這場在熱情觀眾面前展開的對談,不僅深入探討了最先進 AI 模型的前景與挑戰,更觸及了通用人工智慧(AGI)的定義、技術突破方向,乃至於 AI 對未來社會和人類認知的深遠影響。本文將為您整理這場頂尖對談的精華重點。
頂尖模型的潛力與瓶頸:規模化與演算法並進
訪談伊始,主持人 Alex Kantrowitz 便單刀直入,詢問現有頂尖 AI 模型還有多少潛力未被開發,以及為何許多專家認為發展正接近天花板。
Demis Hassabis 坦言,目前的進展確實令人驚豔,Google DeepMind 在主題演講中展示的各項技術突破便是明證。現有技術的潛力已被「榨到極致」(maxing out),但要邁向通用人工智慧(AGI),仍需要數項關鍵的「技術突破」。他強調,DeepMind 手上已有不少新點子,正積極整合到 Gemini 的主要開發流程中。
關於 AI 發展是靠「擴大規模」(scaling)還是「演算法改良」(algorithmic breakthroughs)來推動,是業界長期的討論焦點。Demis 強調這「兩者缺一不可」。他認為必須將現有技術(包括數據量和運算規模)發揮到淋漓盡致,同時也要投入大量精力研究未來的創新演算法,這些演算法可能在半年或一年後,能帶來十倍甚至更高的效能提升,與規模擴展相輔相成。
Sergey Brin 對此表示贊同,他認為演算法和硬體升級都能帶來進步(例如晶片效能、數量、電力、資料中心)。回顧歷史,他以「N 體問題」(N-body problem,模擬多個天體引力作用)為例指出,在某些領域,演算法的進步速度甚至超越了硬體運算能力(摩爾定律)。因此,他傾向認為演算法突破可能比單純的硬體擴展更具影響力。但幸運的是,目前這兩大領域都在快速發展,讓他們能夠同時獲得「雙重效益」。
運算力的需求與「深度思考」:資料中心與即時推理
要支撐 AI 的快速發展,龐大的運算能力是基石。Demis Hassabis 強調,未來確實需要大量增建資料中心,這不僅是為了模型訓練,更是為了支撐模型部署後的「即時推理運算」(real-time inference)。他以 Gemini 2.5 Pro 的超預期需求以及高效能、低成本的 Flash 模型為例,指出這些技術將會被全球廣泛應用,對運算基礎設施的需求極大。
更進一步,他提到像 DeepThink 2.5 Pro 這樣的模型,在處理複雜且高價值的任務時,需要長時間的運算來提升效果。這類的「深度思考」(deep thinking)或「推理模式」(reasoning mode)需要消耗大量晶片資源,是他們正在努力突破的極限。
Sergey Brin 補充道,DeepMind 在「強化學習」(Reinforcement Learning, RL)領域的開創性工作(如 AlphaGo 和 AlphaZero)正是這類「思考模式」價值的最好證明。在遊戲中,具備思考能力的 AI 表現能顯著超越僅靠直覺反應的版本,差距巨大。將這種「思考能力」應用到現實世界,潛在的進步幅度可能會超乎預期。他生動地比喻,這就像「一般人在說話前先想清楚總是有幫助的」,AI 若能如此,實力將大幅提升。而且,未來的 AI 在思考時,還能調用各種「工具」和其他 AI 來優化產出,這將是革命性的突破。
Demis 進一步解釋,「深度思考」或「平行推理」可能是實現 AGI 的關鍵拼圖之一,能提升 AI 的邏輯推演能力。然而,真正的創新,例如提出全新的理論架構或物理學假說,目前的系統還無法做到,這需要新型態的演算架構和精準的「世界模型」(world models)作為基礎。他對 VO3 模型能直觀推斷物理法則(如光線與重力)的能力印象深刻,認為這類模型的精準度需要大幅提升。
AGI 的定義之辯與產業格局:是「人類能力」還是「大腦潛能」?
訪談中反覆出現「通用人工智慧」(AGI)一詞,Alex Kantrowitz 指出,業界現在有聲音認為這個詞已被過度使用而失去意義。Demis 強烈不同意這一點,他認為 AGI 的概念「超級重要」,需要建立明確的共識定義。
他區分了兩種層面的「通用人工智慧」:
- 產品面/經濟面 AGI: 指的是 AI 能做到「一般人單獨能做到的事情」,或說「90% 的人都會的事」。這在經濟和產品上具有重大意義,可以視為達到「普通人類的智力水準」。
- 理論面 AGI: 這才是他真正關注的。指的是「人類大腦這種架構的潛能極限」,也就是能達到像愛因斯坦、莫札特、居禮夫人等歷史上最傑出人類的成就,這些都是使用同樣的大腦結構實現的。他非常確定,目前的 AI 系統還遠未達到這個理論極限。
Demis 認為,目前對 AGI 的熱潮有些「言過其實」,因為現有系統的表現還不夠穩定、不夠「通用」,很容易被發現漏洞(例如解不出高中數學或玩不好簡單遊戲)。真正的 AGI 應該是在各方面都穩定可靠,需要專家團隊花費數個月才能找到明顯的漏洞,而不是普通用戶幾分鐘就能發現問題。
關於 AGI 的競爭格局,Sergey Brin 認為很難預測會由單一公司獨佔,更可能的情況是「多家競爭者」會「漸進式地」達到相近的水準,形成你追我趕的局面,這反而會激勵更多企業投入。Demis 同意會有多家公司競爭,但他強調「首批系統的開發必須確保安全可靠」,並在此基礎上發展各種安全應用。
AI 需要情感嗎?與自我進化系統的想像
一個有趣的問題是,AI 要成為 AGI 需要有「情感智慧」嗎?AI 自己也能有情感嗎?Demis Hassabis 表示,AI「必須要能理解情感」,但自己是否需要「具備情感」則不確定。他認為這基本上是一個「設計選擇」,理論上沒有理由做不到模擬情感,但也可能不需要,甚至讓 AI 具有人類的情感反應「反而不妥」。這問題目前仍「見仁見智」。他預估達到 AGI 大概還需要五到十年,這段時間足夠研究這些問題。
提到 AI 的「自我進化」,Alex Kantrowitz 對 DeepMind 的 Alpha Evolve 系統(能設計更好的演算法、改進 LLM 訓練)感到震驚,開玩笑問 Demis 是否想引發「智能大爆發」。Demis 笑稱不是失控那種。他認為 Alpha Evolve 是個有趣的初步實驗,結合演化式編程和強大基礎模型是個好方向。他確實希望看到更多這類結合不同方法的「組合系統」。他強調「自我提升」正是重點之一,若能發現自我優化的循環機制,發展速度會更快,就像 AlphaZero 在遊戲領域實現從零開始 24 小時學會並超越人類一樣。但他再次提醒,遊戲規則明確,現實世界更複雜混亂,這種方法能否普遍適用尚待觀察。
回到 Google 與 AI 的意義:個人熱情與時代機遇
主持人 Alex Kantrowitz 巧妙地問 Sergey Brin,是不是因為這場 AI 競賽和突破才「回」到 Google。Sergey 澄清他其實沒有「回來」,但他強烈認為現在是「當個電腦科學家」的「千載難逢的機會」,沒有人應該退休,都應該投入 AI。他形容這是一個「前所未見的重大挑戰」,更是「科技突破的關鍵時刻」,這種「科學突破」甚至比他經歷過的網路和手機時代更令人熱血沸騰,對世界的影響也將更巨大。他目前的工作主要集中在 Gemini 文本模型和多模態研究(如 VO3),享受深入鑽研技術細節的樂趣。
實體世界的互動:智慧助理、機器人與 Google Glass 的經驗
相較於其他公司多展示基於螢幕或語音的 AI 助理,Google DeepMind 的展示(如 Astra)更強調透過鏡頭與物理世界互動。主持人好奇這是否是 Google 的發展方向。Demis 解釋,這是基於 DeepMind 長期以來在「智能代理系統」(intelligent agents)領域的傳承。他認為未來的 AGI 必須具備「全面認知能力」,能理解使用者身處的「實體環境」。
他點出兩個最重要的應用場景:
- 智能助理: 不只是綁在電腦手機上,而是能「陪你過日子」,理解周遭環境並協助處理生活大小事。
- 機器人: 他一直認為機器人發展的瓶頸在於「軟體的智慧程度」,而不是硬體。現在有了最新的 Gemini 和 VO 技術,即將開發出強大的演算法,讓機器人技術真正發揮潛能,潛力無可限量。
他強調,AGI 最終必須具備這些與實體世界互動的能力,這也是 Gemini 從設計之初就採用「多模態架構」(multimodal architecture)的原因,儘管這使得開發初期難度大增,但現在看來是正確的決策。
Alex Kantrowitz 也藉機詢問了 Google Glass 的經驗,在智慧眼鏡又捲土重來之際,那些經驗如何應用?Sergey Brin 大方承認 Google Glass 犯了不少錯誤,但強調他依然看好這種設計,很高興現在能有看起來更像普通眼鏡的產品。他認為當時「技術還不夠成熟」(AI、晶片尺寸、電池),AI 的發展讓現在的智慧眼鏡能「默默幫上忙」而不會一直打擾,實用性高得多。他也坦承當時自己對消費電子產品的供應鏈、製造成本和量產複雜性了解不足。這次有了超強夥伴一起開發,他覺得是「往前跨了一大步」。Demis 則認為,將「萬用助手」功能整合進智慧眼鏡,這才是真正能讓產品成功的「王牌應用」。
生成內容的品質與倫理:模型崩潰與浮水印
隨著 AI 生成影片等內容越來越逼真,主持人問及令人擔憂的「模型崩潰」(model collapse)問題:當網路上充斥 AI 生成內容時,這些內容若被用於訓練未來的 AI 模型,會不會導致模型品質下降,不如只用真人創作內容訓練的模型?
Demis Hassabis 承認這是個有效的擔憂,但他認為可以解決:
- 嚴格把關資料品質: 他們對訓練資料的篩選非常嚴格。
- 合成識別碼(SynthID): 至少在 Google DeepMind 所有的生成模型上,他們都會加上一個「AI 生成的隱形浮水印」,這個浮水印非常穩固,已經實施超過 18 個月(圖片和影片都包含)。這不僅能幫助偵測深偽技術和假訊息,也可用於過濾訓練資料。
- 控制合成數據的使用: 未來若將 AI 生成的「合成數據」(synthetic data)用於訓練,必須非常小心,確保生成的數據符合原始數據的「分佈」,且品質達到一定水準。他以 AlphaFold 缺乏足夠實驗數據時,先生成初步版本並篩選高置信度的結果用於訓練的經驗為例。目前學界也在積極研究如何結合人工和真實數據。他呼籲其他 AI 媒體公司也能加入防偽浮水印,特別是為了防止假影片和假消息。
展望未來:網路、AGI 時間表與模擬宇宙
在訪談尾聲的快問快答環節,主持人請兩位展望未來:
- 十年後的網路? Sergey Brin 認為以 AI 的發展速度,十年後的網路乃至整個世界,將「完全超乎我們的想像」,他無法預測。Demis 也認為網路生態會有巨大改變,可能演變成「代理為優先」(agent-centric)的架構,不一定需要人類習慣的視覺介面。
- AGI 在 2030 年前還是後出現? Sergey Brin 選擇「提早」(before 2030)。Demis 則笑稱這代表他「得回去加把勁工作」。
- 面試時用 AI 會被錄取嗎? Demis 表示「不會」,至少使用現有 AI 工具可能不會。他認為這還是要看「使用方式」。Sergey Brin 開玩笑說自己從未面試過別人,也沒被面試過,不便評論。
- 我們活在虛擬世界嗎? Alex 引用了 Demis 關於用指令生成逼真自然景觀的推文。Demis 澄清不是哲學家 Nick Bostrom 提出的那種簡單模擬。他堅信物理的本質是「資訊理論」,我們活在一個「運算宇宙」(computational universe),但這絕非「單純的模擬」。他認為這些系統能模擬自然界的真實結構「很有意思也發人深省」,未來可能會寫篇論文解釋這些現象的意義。Sergey Brin 則以「無限遞迴」的模擬假說反駁(模擬者也被模擬),他認為這種系統總該有個「終止條件」,並且人類中心主義的模擬假說(高等意識操控)可能站不住腳。