史上最大規模醫療AI誕生!英國用5700萬人健康資料訓練,預測病情、分配資源

史上最大規模醫療AI誕生!英國用5700萬人健康資料訓練,預測病情、分配資源

科技界巨頭與醫療體系結合,催生出前所未有的醫學人工智慧(AI)。最近,一個名為 Foresight 的生成式 AI 模型在醫療研究領域進行突破:它利用了來自英國國民保健署(NHS)高達 5700 萬名病患的去識別化健康紀錄進行訓練。這不僅是史上涵蓋人數最多的醫療 AI 訓練計畫,更是 首次將 AI 應用到一整個國家級規模的健康資料集上,為醫療研究和未來健康照護開啟了新的篇章。


這款 Foresight AI 模型擁有強大的預測能力,能根據個人的醫療歷史,預測未來可能發生的健康事件,例如:

  1. 住院風險: 哪些病患在未來較可能需要住院?
  2. 特定疾病發生: 是否有較高風險罹患心臟病、中風等數百種不同疾病?
  3. 其他健康狀況: 潛在的醫療需求或健康趨勢。
    研究人員在5月6日的記者會上表示,如果這些預測證實具有實用價值,Foresight 未來甚至有潛力直接用於輔助醫護人員判斷個別病患的照護需求,或是幫助 NHS 更有效地分配醫療資源。劍橋大學的健康數據科學家 Angela Wood 強調:「這是 AI 模型首次在醫療研究中使用到 5700 萬人的數據,是向前邁出的一大步。」
    巨量數據的力量:從何而來?涵蓋多廣?
    這個最新版本的 Foresight 是以 2018 年至 2022 年間的 NHS 數據為基礎,涵蓋了約 100 億個醫療事件。這些資料來源非常多元,包括:
  4. 醫院就診與住院紀錄
  5. 疫苗接種紀錄
  6. 家庭醫師(GP)看診紀錄
  7. 英國全國死亡登記資料

為了保護隱私,所有用於訓練的數據都經過嚴格的「去識別化」處理,移除了姓名、地址、出生日期等個人身份資訊。此外,模型目前只能在 NHS 內部建構的安全數據環境中運行,任何基於 Foresight 產生的研究預測結果在發布前也會經過篩選。


NHS 表示,雖然民眾可以選擇讓家醫科的紀錄不被用於研究或規劃,但其他類型的健康數據目前無法選擇退出這個資料集。對此,牛津大學的數據隱私研究員 Luc Rocher 也提醒,雖然去識別化已執行,但如此豐富的數據集本質上就很難做到「完全匿名」,這也讓它非常有價值;因此,這樣的模型必須嚴格由 NHS 控制,確保其在安全環境下使用。


台灣經驗:健保資料庫的價值、爭議與憲法判決


無獨有偶地,在台灣,根據財團法人法律扶助基金會探討台灣健保資料庫的文章,我們也擁有一個規模龐大且歷史悠久的健康資料庫——自 1995 年實施的全民健康保險所累積的健保資料庫。近 30 年來,涵蓋超過 2300 萬人的每次就醫、用藥、住院等詳細紀錄,使其成為生醫研究、公共衛生、醫療管理上的巨大資源。如同英國 NHS 資料的用途,台灣健保資料庫的數據也被廣泛應用於學術研究,並催生了數千篇國際論文,足見其價值。


然而,這些健保資料的原始蒐集目的是為了辦理保險業務(如醫療給付申請與支付)。當資料被用於原始目的以外的研究或其他用途時,即構成「二次利用」。這種未經個別同意的二次利用,在台灣引發了廣泛的隱私爭議。許多民眾和人權團體質疑,即使資料經過去識別化處理,仍可能存在隱私風險,並主張民眾應有權利選擇不讓自己的資料被用於這些二次用途,也就是行使「退出權」(Opt-out)。


這項爭議最終鬧上了台灣的憲法法庭。在 2022 年,憲法法庭做出了一份重要判決,雖然肯定了在符合特定條件下,健保資料的二次利用並不違憲(例如基於學術研究且無重大損害),但同時也嚴厲指出,台灣現行的法規制度在以下兩方面存在不足,不符合憲法對資訊隱私權的保障:一是缺乏一個獨立的、具公信力的個人資料保護監督機制;二是健保資料庫在使用上,缺乏足夠的組織與程序性防護措施。


更關鍵的是,憲法法庭明確確認人民擁有請求健保署停止將其資料用於原始蒐集目的外二次利用的權利(退出權)。判決要求相關政府機關必須在三年內(即 2025 年 8 月 12 日前)完成修法,建立獨立監督機制、強化資料庫安全防護,並明確規範民眾退出權的行使方式與例外。


這顯示即使資料具有巨大價值,如何在法規、制度與技術上確保隱私受到充分保障,並賦予民眾對自己健康資料的自主權,是利用龐大健康資料時必須嚴肅面對並解決的課題,也是台灣目前正在努力回應憲法要求的重要進程。


目前的應用與未來的可能性


儘管潛力巨大,英國 Foresight 目前的使用受到限制。它主要被用於大約 100 個與 COVID-19 相關的研究專案中,這是英國心臟基金會與 NHS 英格蘭合作的一部分,旨在利用病患數據研究疫情帶來的影響,例如因疫情導致的醫療預約取消等衝擊。任何超出此範圍的研究應用都需要額外批准。


研究團隊也正在積極評估 Foresight 的預測精準度。他們將利用模型根據病患在 2018-2022 年的數據,去預測他們在 2023 年罹患約 1000 種疾病的狀況,並與真實結果進行比對。倫敦大學學院的健康數據科學家 Chris Tomlinson 指出,這能幫助他們盡可能地接近「地面真相」(ground truth),驗證模型的有效性。


德國癌症研究中心的健康數據科學家 Moritz Gerstung 指出,NHS 這種龐大的數據規模,對於訓練出更精準的醫療 AI 模型至關重要,特別是在預測不常見疾病或解讀非典型醫療歷史方面具有顯著優勢。他也表達了申請在 NHS 數據上訓練自己團隊開發模型的興趣,認為 NHS 數據為生成式健康模型的訓練提供了「非常令人興奮的潛力」。


Foresight AI 的出現,代表著運用巨量、真實世界的健康數據來訓練 AI 的重要進展。它開啟了更精準預測疾病、優化醫療流程、甚至實現個人化精準醫療的可能性。然而,無論是英國正在啟動的國家級 AI 訓練,或是台灣健保資料庫多年來的應用與爭議,都共同指向一個核心挑戰:如何在推動醫療創新的同時,確保病患數據的安全與隱私不被洩露,並建立透明且受監督的資料治理框架。


這需要健全的法規基礎、嚴謹的技術措施,以及賦予民眾適當的資料自主權。NHS 在此扮演的角色,以及其採取的安全措施,如同台灣憲法法庭對健保資料庫治理提出的要求一樣,將是這項技術能否成功並取得公眾信任的關鍵基礎。

Medical AI trained on whopping 57 million health records
Researchers fed an artificial-intelligence model called Foresight with anonymized data from a huge swathe of patients in England’s National Health Service.

Read more

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

OpenAI CEO:AI 神性、員工離奇死亡以及馬斯克

人工智慧是否具有生命?這個問題在大型語言模型如 ChatGPT 問世後,反覆縈繞在許多人心中。它能推理、產生未經程式設定的結果,甚至看似擁有創造力。然而,OpenAI 的執行長山姆・阿特曼(Sam Altman)對此提出清晰的見解。他認為,這些系統並不具備生命。 「它們不會主動做任何事,除非你提出要求。」阿特曼說明,這些模型缺乏自主性或內在動機,只是被動地等待指令。他認為,使用者與之互動越久,那種看似生命的幻覺就越可能消散。儘管如此,它們作為工具的強大能力無庸置疑,展現出近似智慧的表現。 幻覺、謊言與數學機率 當人工智慧提供錯誤資訊時,究竟是產生「幻覺」還是蓄意「說謊」?阿特曼解釋,這兩者之間存在根本差異。他以一個早期模型的例子說明:若使用者提問「塔克・卡爾森總統是哪一年出生?」模型可能會編造一個年份,而非指出此人從未擔任總統。 這並非出於欺騙的意圖,而是一個基於訓練資料的數學機率問題。「因為在訓練過程中,直接否定使用者的前提,並不是最可能出現的回應。」模型會假設使用者的提問基於事實,然後在其龐大的資料庫中,

By Fox Hsiao
Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

Palantir CEO Alex Karp :不用戰爭也能擊敗中國的「太極戰略」,你看懂了嗎?

軟體公司 Palantir 執行長亞歷克斯·卡普(Alex Karp)是一位同時擁有忠實支持者與激烈抗議者的科技領袖。他的公開談話,不僅僅是關於技術或商業,更深刻地反映一種獨特的世界觀,一種關於建立、競爭與西方價值體系的哲學。在這場訪談中,卡普對環繞著他與公司的各種爭議,提出一套完整且充滿挑戰性的論述。 面對為何有人支持、有人反對的提問,卡普將其支持者描繪為「實踐者」(builders)。他認為,這群人懂得欣賞成果,他們衡量一項成就的標準,是基於其是否能超越外界普遍預期的懷疑與折扣。卡普直言:「實踐者們看見那些極具天賦的人,會對所有言論打上折扣,並根據超越這個折扣率的表現來衡量成就。」 Palantir 的發展歷程充滿反直覺的挑戰,從商業模式到公開形象,始終不被看好,但最終以卓越的成果贏得這群人的信賴。 另一方面,他將抗議者歸因於一種由學術機構灌輸的「失敗者崇高論」。他認為,許多抗議者深信自己無法進入科技的核心圈,因而轉向一種假設失敗者更高尚的哲學模型。卡普批判道:「當你認為自己處於失敗的那一方,你就會假設道德不可能站在你的對立面。」他認為,這種思維源於部分學術機構,這些機構將美

By Fox Hsiao
馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

馬斯克最新訪談:兩萬鎂機器人、AI 超越人類、30年移民火星、衛星直連手機服務

在 2025 ALL-IN 訪談中,伊隆・馬斯克分享他對旗下數個野心勃勃計畫的最新進展與未來藍圖,從特斯拉(Tesla)的人形機器人、xAI 的通用人工智慧,到太空探索公司 SpaceX 的星艦與星鏈計畫,勾勒出一幅以科技突破確保人類文明永續發展的宏偉願景。 Optimus:定義未來的勞動力 Musk 堅信,Optimus 人形機器人將是人類的巔峰之作,並將其形容為人類歷史上最偉大的產品。目前,開發團隊正在進行第三版設計的定稿工作。他分析,要成功打造一款能普及的通用型人形機器人,必須克服三大挑戰:擁有與人類相仿的靈巧雙手、一個能理解並與現實世界互動的人工智慧心智,以及大規模生產的能力。 在這些挑戰中,又以手部的設計最為艱鉅。人手經過長時間演化,本身就是一台極度精密的儀器,能執行各種複雜任務。他強調,要創造一個通用的人形機器人,就必須解決手部的問題。 另一個重大障礙是供應鏈的匱乏。Musk 表示,由於現今市場根本不存在適用於人形機器人的關鍵零組件,團隊必須從頭設計與製造。他無奈地說,這些關鍵零件根本買不到,因為它們在市面上並不存在。 之所以堅持採用人形設計,背後有其務實的考量

By Fox Hsiao
哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

哈佛證實:AI正在扼殺新鮮人的第一份工作!6200萬筆數據揭露的殘酷真相

生成式人工智慧(Generative AI)的浪潮正席捲全球,其對勞動市場的衝擊成為各界關注的焦點。當前的討論多半圍繞在工作機會的增減與技能需求的轉變,然而,一份來自哈佛大學的最新研究,透過分析大規模的美國履歷與職缺數據,揭示一個更細微卻極其關鍵的趨勢:生成式AI的導入,可能正在不成比例地影響資淺員工的就業機會,形成一種「偏重資歷的技術變革」(seniority-biased technological change)。 這份名為《生成式AI作為偏重資歷的技術變革》的初步研究報告,由研究者Seyed M. Hosseini與Guy Lichtinger共同撰寫。他們檢視自2015年至2025年間,涵蓋近6200萬名工作者、分屬28萬5000家美國企業的履歷資料,以及超過2.45億筆的職缺公告,試圖描繪出AI技術擴散下,企業內部人力結構的真實變化。 數據揭示的關鍵轉折點 研究的核心發現,在於企業導入AI前後,不同資歷員工的僱用趨勢出現顯著分歧。過往從2015年到2022年中期,無論是資深或資淺員工,其就業增長率大致維持同步。然而,一個明確的轉折點出現在2023年第一季,這恰好是生成

By Fox Hsiao