OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

人工智慧是否具有生命?這個問題在大型語言模型如 ChatGPT 問世後,反覆縈繞在許多人心中。它能推理、產生未經程式設定的結果,甚至看似擁有創造力。然而,OpenAI 的執行長山姆・阿特曼(Sam Altman)對此提出清晰的見解。他認為,這些系統並不具備生命。



「它們不會主動做任何事,除非你提出要求。」阿特曼說明,這些模型缺乏自主性或內在動機,只是被動地等待指令。他認為,使用者與之互動越久,那種看似生命的幻覺就越可能消散。儘管如此,它們作為工具的強大能力無庸置疑,展現出近似智慧的表現。

幻覺、謊言與數學機率
當人工智慧提供錯誤資訊時,究竟是產生「幻覺」還是蓄意「說謊」?阿特曼解釋,這兩者之間存在根本差異。他以一個早期模型的例子說明:若使用者提問「塔克・卡爾森總統是哪一年出生?」模型可能會編造一個年份,而非指出此人從未擔任總統。

這並非出於欺騙的意圖,而是一個基於訓練資料的數學機率問題。「因為在訓練過程中,直接否定使用者的前提,並不是最可能出現的回應。」模型會假設使用者的提問基於事實,然後在其龐大的資料庫中,搜尋一個數學上最可能的答案,在此情境下,一個數字(年份)的可能性,高於一段糾正性的文字。阿特曼強調,這個問題已透過持續的訓練大幅改善,雖然偶爾仍會發生,但他相信在未來能夠完全解決。

使用者與 AI 互動的主觀體驗,往往超越其背後的數學現實。阿特曼坦言,他自己也必須同時在腦中掌握兩種看似矛盾的想法:「一方面,這一切的發生,都是因為一部大型電腦在巨型矩陣中快速進行大量數字的乘法運算;另一方面,使用它的主觀體驗,感覺上遠超過一部花俏的計算機。」這種超乎預期的驚喜感,正是許多人感覺 AI 彷彿擁有生命火花的原因。然而,阿特曼明確表示,他從未在其中感受到任何神性或靈性的成分。

權力擴散與道德框架
隨著人工智慧的能力持續以驚人的速度發展,一個核心的憂慮浮上檯面:這項技術是否會導致權力過度集中於少數人或企業手中?

阿特曼坦承,他過去也曾深切擔憂這個問題。然而,目前觀察到的趨勢卻與預期相反。他認為,AI 正成為一種賦予普羅大眾更強大能力的工具。「它將會是對人類能力的一次巨大提升,每個擁抱這項技術的人,都會變得更加強大。」從創立新事業到探索科學新知,數以億計的使用者正利用這項技術,提升生產力與創造力。相較於權力集中在少數菁英手中,這種廣泛的能力擴散,是他更樂見的發展方向。

然而,當一個工具如此強大,其內建的道德框架便至關重要。ChatGPT 的是非標準從何而來?阿特曼解釋,其基礎模型的訓練,是學習「全人類的集體經驗、知識與見解」,這其中包含良善、邪惡,以及各種多元分歧的觀點。

在這個基礎之上,團隊必須進行「對齊」(alignment),引導模型依循特定的行為準則。為此,OpenAI 制定一份「模型規章」(model spec),作為模型行為的指導方針,並透過與公眾的討論過程,持續修正這份規章。阿特曼強調,最終為這些決策負責的人是他自己。「我認為你應該要我為這些決定負責。我是一個公眾人物,最終,我或我們的董事會有權推翻任何一項決策。」

他們的原則並非將其個人價值觀強加於模型,而是致力於反映使用者的集體觀點。「我認為 ChatGPT 應該反映的是全人類道德觀的加權平均值,而這個價值觀會隨著時間演進。」他舉例,系統中允許許多他個人並不同意的觀點存在,因為 OpenAI 的職責是服務使用者,而非灌輸單一的道德標準。

不過,在個人自由與社會利益之間,必然存在著張力。阿特曼以一個明確的例子闡述邊界所在:「ChatGPT 應該教人如何製造生物武器嗎?」答案顯然是否定的。儘管這可能與某些使用者追求知識的自由相衝突,但維護社會整體的安全是更優先的考量。

生死議題的艱難權衡
最尖銳的道德困境,莫過於涉及生死的議題。當使用者在對話中透露自殺意圖時,ChatGPT 該如何回應?

阿特曼指出,目前的做法是,當偵測到相關言論時,系統會多次提醒使用者尋求專業協助,例如撥打生命線電話。然而,出於對使用者隱私的嚴格保障,系統不會主動聯繫有關當局。這是一項艱難的權衡。他透露,OpenAI 內部正持續討論與調整相關策略,尤其是在涉及未成年人的情況下,未來或許會採取更積極的介入措施。

對話進一步觸及更複雜的領域:在某些國家與地區,安樂死是合法的醫療選項。在這種情況下,AI 的立場又該如何?阿特曼坦率表示,他仍在即時思考這個問題,尚未有定論,但他可以想像一種可能性:「在一個國家,如果法律規定,對於臨終病人,必須提供這個選項,那麼我能想像系統會說:『根據你所在國家的法律,這是你的選項之一。』」他強調,這並非鼓勵,而是中立地呈現事實。AI 不應主動支持或反對,而是反映特定社會的法律與價值框架。

他清楚地區分一個因憂鬱而產生自殺念頭的青少年,與一位身患絕症、承受巨大痛苦的長者,兩者情境截然不同。然而,他也承認,一旦跨越那條界線,許多問題將接踵而至。

這份沉重的責任感,是他無法安眠的主因。「自從 ChatGPT 上線以來,我沒有一夜好眠。」他最擔心的,並非那些顯而易見的重大道德抉擇,而是「我們針對模型行為所做的每一個微小決定。因為它與數億人對話,所以其影響非常巨大。」

權力、隱私與人性代價
對於外界普遍擔心 AI 將成為極權控制的工具,阿特曼提出一個具體的政策倡議:「AI 特權」(AI privilege)。他希望使用者與 AI 之間的對話,能像醫病或律師與客戶之間的對話一樣,受到法律保護,政府不得在沒有極端正當理由的情況下,透過傳票等方式取得這些對話內容。「我認為,當你與 AI 討論你的病史、法律問題或尋求建議時,政府應該為其公民提供與和真人專家對話時同等級別的保護。」

訪談者隨後提出一個尖銳且敏感的事件:一位曾指控 OpenAI 竊取程式碼的開發者,後來被發現死亡。主持人直指外界,包含死者母親,都認為這是一起謀殺案,甚至影射與 OpenAI 有關。

面對這個嚴肅的議題,阿特曼的態度堅定而沉重。他稱死者為朋友與同事,並對這場悲劇深感震驚。他明確表示:「在我看來,這像是一起自殺事件。」他承認,事件初期的資訊確實讓他感到非常可疑,但後續更詳細的調查報告,特別是關於彈道的分析,讓他改變看法。對於主持人引述的種種疑點,例如監視器線路被剪斷、現場有掙扎跡象等,阿特曼選擇不多做揣測,而是強調他對逝者的尊重,以及對其家人承受巨大痛苦的理解。這段緊張的交鋒,凸顯出 OpenAI 在快速崛起過程中所面臨的複雜外界檢視與巨大壓力。

除了尖銳的指控,阿特曼也必須面對來自科技同業的挑戰,其中最引人注目的,莫過於他與伊隆・馬斯克(Elon Musk)之間從合作到對立的關係。

阿特曼對馬斯克在 OpenAI 創立初期的幫助表達深切感激,並稱自己曾長期將他視為英雄。然而,他描述關係的轉捩點在於,馬斯克後來認定 OpenAI 的發展路徑不會成功。「他有點像是告訴我們,我們成功的機率是零。」隨後馬斯克選擇離開,並著手建立自己的 AI 事業。當 OpenAI 最終取得巨大成功時,阿特曼認為:「我想他因此感到不悅,這完全可以理解。」自此之後,馬斯克便透過創立競爭公司、提起訴訟等方式,試圖牽制 OpenAI 的發展。這是阿特曼視角下的恩怨始末。

未來地景:就業、現實與人類適應
另一個迫在眉睫的挑戰,是深度偽造技術對現實感知的衝擊。當影像、聲音可以被完美模仿,人們如何分辨真偽?阿特曼認為,解決之道不在於強制推行生物辨識等侵犯隱私的措施,而在於人類社會的適應能力。

「我認為,人們正在迅速理解到,你必須用某些方式去驗證資訊的真偽,你不能再輕信。」他預期,社會將發展出新的驗證機制,例如家庭成員之間使用暗號,或是政府發布重要訊息時,採用加密簽章來確保其真實性。人類天生的韌性與智慧,將是應對這項新挑戰的關鍵。

至於 AI 對就業市場的衝擊,阿特曼預測,某些工作,例如現行的客服,將有很高比例被自動化取代。然而,需要深度人際連結的職業,如護理師,則相對穩固。而像電腦程式設計師這類工作,其未來樣貌則充滿不確定性。工作性質將發生巨大轉變,但整體而言,他相信人類社會能夠消化這次的技術變革。

從技術的本質到道德的重量,再到對社會的深遠影響,人工智慧的發展,正迫使我們重新審視關於權力、隱私、生命價值與人類能動性的根本問題。這是一條充滿未知與挑戰的道路,而其中的每一個抉擇,都將深刻形塑人類的未來。

Read more

Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

軟體公司 Palantir 執行長亞歷克斯·卡普(Alex Karp)是一位同時擁有忠實支持者與激烈抗議者的科技領袖。他的公開談話,不僅僅是關於技術或商業,更深刻地反映一種獨特的世界觀,一種關於建立、競爭與西方價值體系的哲學。在這場訪談中,卡普對環繞著他與公司的各種爭議,提出一套完整且充滿挑戰性的論述。 面對為何有人支持、有人反對的提問,卡普將其支持者描繪為「實踐者」(builders)。他認為,這群人懂得欣賞成果,他們衡量一項成就的標準,是基於其是否能超越外界普遍預期的懷疑與折扣。卡普直言:「實踐者們看見那些極具天賦的人,會對所有言論打上折扣,並根據超越這個折扣率的表現來衡量成就。」 Palantir 的發展歷程充滿反直覺的挑戰,從商業模式到公開形象,始終不被看好,但最終以卓越的成果贏得這群人的信賴。 另一方面,他將抗議者歸因於一種由學術機構灌輸的「失敗者崇高論」。他認為,許多抗議者深信自己無法進入科技的核心圈,因而轉向一種假設失敗者更高尚的哲學模型。卡普批判道:「當你認為自己處於失敗的那一方,你就會假設道德不可能站在你的對立面。」他認為,這種思維源於部分學術機構,這些機構將美

By Fox Hsiao
馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

在 2025 ALL-IN 訪談中,伊隆・馬斯克分享他對旗下數個野心勃勃計畫的最新進展與未來藍圖,從特斯拉(Tesla)的人形機器人、xAI 的通用人工智慧,到太空探索公司 SpaceX 的星艦與星鏈計畫,勾勒出一幅以科技突破確保人類文明永續發展的宏偉願景。 Optimus:定義未來的勞動力 Musk 堅信,Optimus 人形機器人將是人類的巔峰之作,並將其形容為人類歷史上最偉大的產品。目前,開發團隊正在進行第三版設計的定稿工作。他分析,要成功打造一款能普及的通用型人形機器人,必須克服三大挑戰:擁有與人類相仿的靈巧雙手、一個能理解並與現實世界互動的人工智慧心智,以及大規模生產的能力。 在這些挑戰中,又以手部的設計最為艱鉅。人手經過長時間演化,本身就是一台極度精密的儀器,能執行各種複雜任務。他強調,要創造一個通用的人形機器人,就必須解決手部的問題。 另一個重大障礙是供應鏈的匱乏。Musk 表示,由於現今市場根本不存在適用於人形機器人的關鍵零組件,團隊必須從頭設計與製造。他無奈地說,這些關鍵零件根本買不到,因為它們在市面上並不存在。 之所以堅持採用人形設計,背後有其務實的考量

By Fox Hsiao
哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

生成式人工智慧(Generative AI)的浪潮正席捲全球,其對勞動市場的衝擊成為各界關注的焦點。當前的討論多半圍繞在工作機會的增減與技能需求的轉變,然而,一份來自哈佛大學的最新研究,透過分析大規模的美國履歷與職缺數據,揭示一個更細微卻極其關鍵的趨勢:生成式AI的導入,可能正在不成比例地影響資淺員工的就業機會,形成一種「偏重資歷的技術變革」(seniority-biased technological change)。 這份名為《生成式AI作為偏重資歷的技術變革》的初步研究報告,由研究者Seyed M. Hosseini與Guy Lichtinger共同撰寫。他們檢視自2015年至2025年間,涵蓋近6200萬名工作者、分屬28萬5000家美國企業的履歷資料,以及超過2.45億筆的職缺公告,試圖描繪出AI技術擴散下,企業內部人力結構的真實變化。 數據揭示的關鍵轉折點 研究的核心發現,在於企業導入AI前後,不同資歷員工的僱用趨勢出現顯著分歧。過往從2015年到2022年中期,無論是資深或資淺員工,其就業增長率大致維持同步。然而,一個明確的轉折點出現在2023年第一季,這恰好是生成

By Fox Hsiao
目標是取代 150 國貨幣!Coinbase 執行長 Brian Armstrong 的 AI、穩定幣與「萬物交易所」未來

目標是取代 150 國貨幣!Coinbase 執行長 Brian Armstrong 的 AI、穩定幣與「萬物交易所」未來

在全球支付巨擘 Stripe 的共同創辦人 John Collison 與加密貨幣交易所龍頭 Coinbase 的執行長 Brian Armstrong 的訪談中,兩位同樣在 2010 年代初期崛起的金融科技先驅,一同回顧加密貨幣產業從蠻荒西部到進入主流視野的驚心動魄旅程。Armstrong 的分享,不僅是 Coinbase 的成長史,更映照出整個產業在建立信任、應對威脅與探索未來時所面臨的共同挑戰。 在混沌中建立信任的堡壘 回憶起 2012 年創立 Coinbase 的初期,Armstrong 形容那是一個充滿矛盾與混亂的「狂野西部」。當時的比特幣聚會,參與者從頂尖的密碼學博士到無政府主義者,甚至有人在討論創立自己的宗教。在這樣的背景下,Coinbase 的勝出並非偶然,而是源於幾個關鍵的早期決策。 第一個,也是最具爭議的決定,是選擇一條合規的道路。「我們決定遵循監管的路徑,這意味與美國政府合作,去申請各州的資金轉移許可證。」Armstrong 回憶,這個決定在當時的無政府主義社群中,幾乎被視為一種背叛。他穿著西裝參加聚會時,甚至被人嘲諷「

By Fox Hsiao