長輩用 AI 像在用 Google,年輕人像用 OS?Sam Altman 談 AI 平台演進如何改變你我生活

長輩用 AI 像在用 Google,年輕人像用 OS?Sam Altman 談 AI 平台演進如何改變你我生活

Sam Altman 回顧 OpenAI 最初(2016年)在簡陋的第一間辦公室,只有約14人,當時並沒有具體的產品或商業模式,只是一個充滿堅定信念的研究實驗室。他們嘗試了各種方向,包括讓 AI 玩電玩、控制機械手臂等,重點在於建立系統來驗證研究的可行性,而不僅僅是發表學術論文。

關鍵轉捩點出現在發展到 GPT-3 階段時。模型規模指數級增長,所需投資高達數十億美元,這讓團隊意識到需要轉變為商業模式來支撐持續的研究與擴展(朝向 GPT-4 等更大模型)。


OpenAI 最初嘗試推出的是 API 服務,將 GPT-3 開放給開發者使用(約在 2020 年)。雖然外部反應不如預期,但團隊注意到使用者在 OpenAI 自家平台上「與模型聊天」的行為非常受歡迎,即使當時聊天功能並不完善(尚未大規模應用人類反饋強化學習 RLHF)。正是這個觀察,促使他們將資源投入開發更容易使用的聊天產品,最終催生了引爆全球熱潮的 ChatGPT(於 2022 年 11 月推出)。這證明了「讓產品更易於使用通常會帶來顯著效益」的商業原則。

面對公司快速擴張,Sam Altman 認為許多大公司犯的錯誤是規模變大但行動不夠積極,導致效率像糖漿一樣緩慢。他的哲學是「要做更多的事」,讓每個團隊保持精簡,賦予少數人大量責任。這能確保每個人都保持忙碌且能產生重大影響,避免陷入無止盡的會議和權責不清。公司成長的動力來源於不斷增加「待辦事項」,而非讓組織變得臃腫。

Sam Altman 描繪了 OpenAI 的未來願景:成為使用者核心的「個人化 AI 訂閱服務」。這個 AI 不僅能理解並整合使用者一生的上下文資訊(對話、閱讀、郵件等),還能在各種服務和未來的設備(類似作業系統的產品)中無縫運行。

他認為未來的平台可能會超越目前的 API 形式,朝向一種新的協議發展,類似於 AI 時代的 HTTP,能夠整合代理(Agent)、工具、身份驗證和支付等功能,讓 AI 能夠在不同應用和現實世界中執行更多任務。雖然目前的 API 版本尚未完全實現這個目標,但這是努力的方向,希望能為全球帶來巨大的價值創造,並讓其他人能在此基礎上建立豐富的應用生態。

訪談中也討論到 AI 工具在不同年齡層使用者中的差異應用。Sam Altman 觀察到年輕一代(20多歲)已經將 ChatGPT 視為一種「作業系統」,能以複雜的方式與模型互動,連接檔案、記住指令,甚至用來做人生決定。相較之下,年長者可能更傾向將其作為 Google 的替代品。這種現象類似於智慧型手機普及時的世代差距,AI 工具的世代鴻溝令人驚訝。

他強調,程式開發(Coding)將是未來 AI 模型的核心功能之一。AI 不僅能寫程式碼,更能作為驅動世界的「代理」,呼叫各種 API,實現現實世界中的功能。這預示著 AI 將從目前的「助理」角色,演進到「代理」,最終可能成為新型態的「應用程式」。

此外,AI 在科學發現領域的潛力也備受期待,Sam Altman 預期在未來幾年,AI 將能協助甚至獨立完成重要的科學突破,推動社會知識的邊界,進而帶來經濟成長。

在研究策略上,Sam Altman 提到有些大型專案需要由上而下的協調,但過度的管控並非最佳方式。OpenAI 在經營研究實驗室上,借鑒了歷史上成功實驗室的原則,而非自創一套。他對於這些經得起時間考驗的原則在當代 AI 研究中依然奏效感到驚訝,並認為這是 OpenAI 得以持續創新的原因之一。

最後,針對創業者關心的韌性議題,Sam Altman 分享個人經歷指出,創業挑戰會越來越難、風險越來越高,但隨著經驗累積,情緒上的負擔反而可能減輕,應對能力和韌性會增強。他特別強調,面對重大危機時,最難的部分往往不是危機發生的當下,而是事後的心理衝擊與重建過程,這是創業者可以多加練習和提升的地方。

Read more

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

人工智慧是否具有生命?這個問題在大型語言模型如 ChatGPT 問世後,反覆縈繞在許多人心中。它能推理、產生未經程式設定的結果,甚至看似擁有創造力。然而,OpenAI 的執行長山姆・阿特曼(Sam Altman)對此提出清晰的見解。他認為,這些系統並不具備生命。 「它們不會主動做任何事,除非你提出要求。」阿特曼說明,這些模型缺乏自主性或內在動機,只是被動地等待指令。他認為,使用者與之互動越久,那種看似生命的幻覺就越可能消散。儘管如此,它們作為工具的強大能力無庸置疑,展現出近似智慧的表現。 幻覺、謊言與數學機率 當人工智慧提供錯誤資訊時,究竟是產生「幻覺」還是蓄意「說謊」?阿特曼解釋,這兩者之間存在根本差異。他以一個早期模型的例子說明:若使用者提問「塔克・卡爾森總統是哪一年出生?」模型可能會編造一個年份,而非指出此人從未擔任總統。 這並非出於欺騙的意圖,而是一個基於訓練資料的數學機率問題。「因為在訓練過程中,直接否定使用者的前提,並不是最可能出現的回應。」模型會假設使用者的提問基於事實,然後在其龐大的資料庫中,

By Fox Hsiao
Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

軟體公司 Palantir 執行長亞歷克斯·卡普(Alex Karp)是一位同時擁有忠實支持者與激烈抗議者的科技領袖。他的公開談話,不僅僅是關於技術或商業,更深刻地反映一種獨特的世界觀,一種關於建立、競爭與西方價值體系的哲學。在這場訪談中,卡普對環繞著他與公司的各種爭議,提出一套完整且充滿挑戰性的論述。 面對為何有人支持、有人反對的提問,卡普將其支持者描繪為「實踐者」(builders)。他認為,這群人懂得欣賞成果,他們衡量一項成就的標準,是基於其是否能超越外界普遍預期的懷疑與折扣。卡普直言:「實踐者們看見那些極具天賦的人,會對所有言論打上折扣,並根據超越這個折扣率的表現來衡量成就。」 Palantir 的發展歷程充滿反直覺的挑戰,從商業模式到公開形象,始終不被看好,但最終以卓越的成果贏得這群人的信賴。 另一方面,他將抗議者歸因於一種由學術機構灌輸的「失敗者崇高論」。他認為,許多抗議者深信自己無法進入科技的核心圈,因而轉向一種假設失敗者更高尚的哲學模型。卡普批判道:「當你認為自己處於失敗的那一方,你就會假設道德不可能站在你的對立面。」他認為,這種思維源於部分學術機構,這些機構將美

By Fox Hsiao
馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

在 2025 ALL-IN 訪談中,伊隆・馬斯克分享他對旗下數個野心勃勃計畫的最新進展與未來藍圖,從特斯拉(Tesla)的人形機器人、xAI 的通用人工智慧,到太空探索公司 SpaceX 的星艦與星鏈計畫,勾勒出一幅以科技突破確保人類文明永續發展的宏偉願景。 Optimus:定義未來的勞動力 Musk 堅信,Optimus 人形機器人將是人類的巔峰之作,並將其形容為人類歷史上最偉大的產品。目前,開發團隊正在進行第三版設計的定稿工作。他分析,要成功打造一款能普及的通用型人形機器人,必須克服三大挑戰:擁有與人類相仿的靈巧雙手、一個能理解並與現實世界互動的人工智慧心智,以及大規模生產的能力。 在這些挑戰中,又以手部的設計最為艱鉅。人手經過長時間演化,本身就是一台極度精密的儀器,能執行各種複雜任務。他強調,要創造一個通用的人形機器人,就必須解決手部的問題。 另一個重大障礙是供應鏈的匱乏。Musk 表示,由於現今市場根本不存在適用於人形機器人的關鍵零組件,團隊必須從頭設計與製造。他無奈地說,這些關鍵零件根本買不到,因為它們在市面上並不存在。 之所以堅持採用人形設計,背後有其務實的考量

By Fox Hsiao
哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

生成式人工智慧(Generative AI)的浪潮正席捲全球,其對勞動市場的衝擊成為各界關注的焦點。當前的討論多半圍繞在工作機會的增減與技能需求的轉變,然而,一份來自哈佛大學的最新研究,透過分析大規模的美國履歷與職缺數據,揭示一個更細微卻極其關鍵的趨勢:生成式AI的導入,可能正在不成比例地影響資淺員工的就業機會,形成一種「偏重資歷的技術變革」(seniority-biased technological change)。 這份名為《生成式AI作為偏重資歷的技術變革》的初步研究報告,由研究者Seyed M. Hosseini與Guy Lichtinger共同撰寫。他們檢視自2015年至2025年間,涵蓋近6200萬名工作者、分屬28萬5000家美國企業的履歷資料,以及超過2.45億筆的職缺公告,試圖描繪出AI技術擴散下,企業內部人力結構的真實變化。 數據揭示的關鍵轉折點 研究的核心發現,在於企業導入AI前後,不同資歷員工的僱用趨勢出現顯著分歧。過往從2015年到2022年中期,無論是資深或資淺員工,其就業增長率大致維持同步。然而,一個明確的轉折點出現在2023年第一季,這恰好是生成

By Fox Hsiao