英國Royal Free國家健康服務基金信託與Google DeepMind間的資料分享協議違反英國資料保護法

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2017年7月公告Royal Free國家健康服務基金信託(Royal Free London NHS Foundation Trust)與Google人工智慧研究室DeepMind之間的資料分享協議,違反資料保護法(Data Protection Act)。

  該協議之目的在使DeepMind利用Royal Free所提供的醫療資料,開發一款名為Streams的應用程式,透過人工智慧系統分析得知病患惡化之情況,並以手機警示方式通知臨床醫生。由於涉及病患的可識別個人資料且人數多達160萬人,協議的合法性,尤其在資料分享是否經病患同意方面,受到質疑。

  Royal Free與DeepMind主張因應用程式是直接對病患進行醫療照護,具有病患默示同意(implied consent)之正當基礎,且資料經加密後才傳給DeepMind。惟經ICO調查結果如下:

  1. 就資料將被使用作為應用程式測試一事,病患未獲充分告知亦無合理期待;
  2. 雖執行隱私影響評估,惟僅於資料傳給DeepMind後才進行,無法發揮事前評估作用;
  3. 應用程式尚在測試階段,無法說明揭露160萬病患紀錄的必要性與手段合理性。

  目前Royal Free已承諾改進以確保其行為合法性。ICO之認定突顯創新不應以「減損法律對基本隱私權保障」作為代價。

相關連結
※ 英國Royal Free國家健康服務基金信託與Google DeepMind間的資料分享協議違反英國資料保護法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7845&no=65&tp=1 (最後瀏覽日:2025/04/12)
引註此篇文章
你可能還會想看
歐盟執委會通過數位歐洲計畫2023~2024年工作計畫

為促進歐洲的數位轉型,歐盟執委會(European Commission)在2023年3月24日於通過數位歐洲計畫(Digital Europe programme, DEP)下的2023~2024年工作計畫,預計投入12.84億歐元於「主要數位歐洲計畫工作計畫」(Main DEP programme)(下稱「主要工作計畫」)及「網路安全工作計畫」(Cybersecurity Work Programme),以延續之前投入之成果,並加強歐盟對抗網路威脅的集體韌性。 實際上歐盟於2018年即提出第一個數位歐洲計畫,並透過數位單一市場策略(Digital Single Market strategy)嘗試建立符合數位特性的監管框架,藉以提高歐盟的國際競爭力,發展及加強歐洲的數位能力。數位歐洲計畫包括五個重點領域:超級電腦(Supercomputers)、人工智慧(Artificial intelligence, AI)、網路安全及信任(Cybersecurity and trust)、數位技能(Digital skills),以及確保數位技術在經濟及社會中被廣泛使用。 前述所說的主要工作計畫,其投入資金為9.095億歐元,重要工作有三。首先,藉由關注氣候和環境保護技術、數據資料、人工智慧、雲端、網路安全、先進數位技能及部署此些技術之最佳方法,並加強歐盟的關鍵數位能力。第二,關注數位公共服務,強調具跨境互操作性(cross-border interoperability)的公部門解決方案(例如歐洲數位身份)。此外,也將透過歐洲數位媒體觀測站(European Digital Media Observatory, EDMO)打擊假訊息,並以InvestEU計畫下的策略數位技術投資平台,重點支持中小及新創企業關注網路安全。 其次,網路安全工作計畫的投入資金為3.75億歐元,由歐洲網路安全能力中心(European Cybersecurity Competence Centre)負責執行,將支援建立國家和跨境安全操作中心的能力,以打造最先進的威脅檢測及網路事件分析生態系統。網路安全工作計畫還將資助產業(特別是中小及新創企業)遵守網路安全法規要求的項目,特別是網路及資訊系統安全指令(Directive on Security of Network and Information Systems, NIS2)或網路韌性法案(Cyber Resilience Act)所要求的內容。 歐盟已在加強數位公共服務、數位技能及網路安全等方面投入許多資源,其中網路安全、資安威脅和打擊假消息等議題因其不受地區限制而更受到注目,未來仍待持續關注此些議題之發展。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

美國針對政府雲端運算應用之資訊安全與認可評估提案

  為建構政府雲發展的妥適環境,美國於今年度啟動「聯邦風險與認可管理計畫」(Federal Risk and Authorization Management Program, FedRAMP),由國家技術標準局(National Institute of Standards and Technology, NIST)、公共服務行政部(General Service Administration)、資訊長聯席會(CIO Council)及其他關連私部門團體、NGO及學者代表共同組成的跨部會團隊,針對外部服務提供者提供政府部門IT共享的情形,建構一個共同授權與持續監督機制。在歷經18個月的討論後,於今(2010)年11月提出「政府雲端資訊安全與認可評估」提案(Proposed Security Assessment & Authorization for U.S Government Cloud Computing),現正公開徵詢公眾意見。   在FedRAMP計畫中,首欲解決公部門應用雲端運算所衍伸的安全性認可問題,因此,其將研議出一套跨部門共通性風險管理程序。尤其是公部門導入雲端應用服務,終究會歸結到委外服務的管理,因此本計劃的進行,是希望能夠讓各部門透過一個機制,無論在雲端運算的應用及外部服務提供之衡量上,皆能依循跨機關的共通資訊安全評定流程,使聯邦資訊安全要求能夠協調應用,並強化風險管理及逐步達成效率化以節省管理成本。   而在上述「政府雲端資訊安全與認可評估」文件中,可分為三個重要範疇。在雲端運算安全資訊安全基準的部份,主要是以NIST Special Publication 800-535中的資訊安全控制項作為基礎;並依據資訊系統所處理、儲存與傳輸的聯邦資訊的敏感性與重要性,區分影響等級。另一部份,則著重在持續性的系統監控,主要是判定所部署的資訊安全控制,能否在不斷變動的環境中持續有效運作。最後,則是針對聯邦資訊共享架構,出示模範管理模式、方策與責任分配體系。

世界經濟論壇2020年十大新興科技報告,與健康和環境相關之前瞻科技發展備受矚目

  世界經濟論壇(World Economic Forum, WEF)於2020年11月10日發表「2020年十大新興科技報告」(Top 10 Emerging Technologies 2020),報告中提出10個近年出現,且被認為在未來5年內最具有正面改變社會潛力的新興科技,並說明除了關注這些科技帶來的改變外,也應關注其引發的風險。   2020年全球最密切關注的議題為健康與氣候變遷,也因此2020年被認為具有發展潛力的新興技術均與這兩個議題有關,包含:(1)無痛注射與測試用的微針技術(Microneedles);(2)太陽能化學(Sun-Powered Chemistry)利用可見光將二氧化碳轉換為普通材料,可作為合成藥物、清潔劑、化學肥料和紡織品的材料;(3)虛擬患者(Virtual Patients),替代人類做人體臨床試驗,比一般試驗更快更安全;(4)空間計算(Spatial Computing)以強化虛擬生活和現實的連結;(5)數位醫療(Digital Medicine)應用程式之發展可以診斷甚至治癒疾病;(6)電動飛航(Electric Aviation)裝置,例如電動推進器可以清除直接碳排放(direct carbon emissions),減少九成的燃料成本、五成維護成本和七成噪音汙染,降低整體航空旅程環境污染並提高效率;(7)低碳水泥(Lower-Carbon Cement)的發展作為氣候變遷下的新興建築材料;(8)量子感測(Quantum Sensing)做為高精準度計算方式,將於未來三到五年進入市場,並首重用於醫療和國防應用產業上;(9)新興零碳能源如綠氫(Green Hydrogen),可補充風力和太陽能;(10)全基因合成(Whole-Genome Synthesis)作為下一代細胞工程(cell engineering)尖端科技,使未來醫學得以治癒更多遺傳疾病。   報告中指出,雖然這些新興技術具有改變社會和產業的潛力,但卻無法確保技術本身是否能被妥善使用(Good is not guaranteed)。首先,這些技術仍需要龐大資金以達到成熟度和可利用的價格點(price point),才能與相關產業達成整合化、規模化。此外面對這些新興科技,決策者必須迅速針對可能引發的風險提出對應策略,例如數位醫療在手機應用程式上會引發政府許可、資料利用、隱私等問題。因此,政策與產業如何協作,使用相關科技、限制濫用並控制技術中風險等,是面對是類新興科技應積極考量的方向。

TOP