英國國家醫療服務體系(NHS)公布國家資料退出(Opt-out)操作政策指導文件

  個人健康資料共享向為英國資料保護爭議。2017年英國資訊專員辦公室(ICO)認定Google旗下人工智慧部門DeepMind與英國國家醫療服務體系(NHS)的資料共享協議違反英國資料保護法後,英國衛生部(Department of Health and Social Care)於今年(2018)5月修正施行新「國家資料退出指令」(National data opt-out Direction 2018),英國健康與社會照護相關機構得參考國家醫療服務體系(NHS)10月公布之國家資料退出操作政策指導文件(National Data Opt-out Operational Policy Guidance Document)規劃病患退出權行使機制。

  該指導文件主要在闡釋英國病患退出權行使之整體政策,以及具體落實建議作法,例如:

  1. 退出因應措施。未來英國病患表示退出國家資料共享者,相關機構應配合完整移除資料,並不得保留重新識別(de-identify)可能性;
  2. 退出權行使。因指令不溯及既往適用,因此修正施行前已合法處理提供共享之資料,不必因此中止或另行進行去識別化等資料二次處理;此外,病患得動態行使其退出權,於退出後重新加入國家資料共享體系;應注意的是,退出權的行使,採整體性行使,亦即,病患不得選擇部分加入(如僅同意特定臨床試驗的資料共享);
  3. 例外得限制退出權情形。病患資料之共享,如係基於當事人同意(consent)、傳染病防治(communicable disease and risks to public health)、重大公共利益(overriding public interest)、法定義務或配合司法調查(information required by law or court order)等4種情形之一者,健康與社會照護相關機構得例外限制病患之退出權行使。

  NHS已於今年9月完成國家資料退出服務之資料保護影響評估(DPIA),評估結果認為非屬高風險,因此不會向ICO諮詢資料保護風險。後續英國相關機構應配合於2020年5月前完成病患資料共享退出機制之建置。

相關連結
你可能會想參加
※ 英國國家醫療服務體系(NHS)公布國家資料退出(Opt-out)操作政策指導文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8119&no=55&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
歐洲自律聯盟成立以塑造對兒童更好的網路環境

  如何確保兒童上網安全,為歐盟數位議程(Digital Agenda)的七大目標之一。而近年來網路內容蓬勃與快速發展,更大幅加速了兒童上網的趨勢。據歐盟執委會於2011年12月的公開資料顯示(IP/11/1485),歐洲兒童平均7歲即開始接觸網路。目前有超過38%的9-12歲兒童在社交網站上有個人資訊,有30%以上的兒童是藉由行動裝置上網。如此高的上網比率,讓各業者有共識以提供兒童更好的上網環境。由蘋果、微軟、Google等跨國企業為首的二十餘家業者組成了自律組織,以提供歐盟地區的兒童更好網路內容環境而努力。   該自律聯盟於2011年12月正式成立,並以五個面向採取相關行動:簡單且強大的工具-能夠搜尋於任何裝置上可能對孩童有害的內容;分齡隱私設定-使用者可限定公布資訊予特定族群;更廣泛的內容分級:提供家長易於理解的年齡內容分級;更廣泛的家長控制工具-積極推動使用者有善的工具;兒童色情內容有效移除-與執法單位與保護熱線等積極合作,將兒童色情內容快速下架。   各業者承諾就其營業項目、產品、服務內容等皆須符合此自律規範,並成立工作小組以協助歐盟執委會處理相關議題。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

FDA發布「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案

  美國食品和藥物管理局(FDA)於2018年9月6日發布關於「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案。」   為滿足FDA促進公共健康的使命,醫療器械上市前核准(PMA)通常涉及較高的不確定性,因此本指引是適當的解決利益風險的判定以支持FDA的決策。包含考量患病群願意接受醫療器械帶來的益處及風險之更多不確定性,特別是沒有可接受的替代治療方案時。   根據指引草案,FDA依據具體情況,判定其利益-風險的適當程度之不確定性,包括: (1) 醫療器械可能帶來好處程度。 (2) 醫療器械存在的風險程度。 (3) 關於替代治療或診斷的利益-風險之不確定程度。 (4) 如果可能,需瞭解患者對醫療器械可能帶來的益處和風險之不確定性觀點。 (5) 公共衛生需求的程度。 (6) 依據臨床證據可支持上市前之可行性。 (7) 能夠減少或解決醫療器械的上市後利益-風險留下之不確定性。 (8) 上市後緩解措施的有效性。 (9) 建立決策類型。(如上市前核准(PMA)和人道用途器材免除(HDE)的核准標準不同。) (10) 對於早期患者訪問醫療器械的可能帶來的益處。   本指引草案中,FDA基於考量有關醫療器械臨床/非臨床訊息之利益風險,需與FDA的規範、監管機關和要求要有一致性。

澳洲聯邦法院判決藥品仿單受著作權保護

  澳洲聯邦法院近日在Sanofi-Aventis Australia Pty Ltd與Apotex Pty Ltd一案中([2011] FCA 846),首次針對記載藥品資訊的仿單著作權侵權問題進行處理。法院判決Sanofi的Leflunomide藥品仿單含有Sanofi員工相當的知識與判斷,係Sanofi員工的共同著作,受到著作權的保護。法院並進一步判決Apotex的Leflunomide藥品仿單重製了Sanofi 的Leflunomide藥品仿單的重要部分,在係爭案件中,亦無法推斷出有默示的授權,因此判決Apotex侵犯了Sanofi的Leflunomide藥品仿單的著作權。   儘管藥品仿單的複雜問題目前仍備受爭議與討論,澳洲將在醫療物品修正法案(Therapeutic Goods Legislation Amendment (Copyright) Act 2011)中,針對相關問題加以釐清。前述修正案針對1968年著作權法(Copyright Act 1968)新增44BA條,該條項賦予在1989年醫療產品法(Therapeutic Goods Act 1989)25AA條款下有關醫藥產品資訊的合理使用範疇,明確規範包括供給、重製、發行、散佈/傳播(communicating)、改作等利用全部或部分醫療藥品資訊的行為不侵害產品資訊的著作權。

TOP