英國國家醫療服務體系(NHS)公布國家資料退出(Opt-out)操作政策指導文件

  個人健康資料共享向為英國資料保護爭議。2017年英國資訊專員辦公室(ICO)認定Google旗下人工智慧部門DeepMind與英國國家醫療服務體系(NHS)的資料共享協議違反英國資料保護法後,英國衛生部(Department of Health and Social Care)於今年(2018)5月修正施行新「國家資料退出指令」(National data opt-out Direction 2018),英國健康與社會照護相關機構得參考國家醫療服務體系(NHS)10月公布之國家資料退出操作政策指導文件(National Data Opt-out Operational Policy Guidance Document)規劃病患退出權行使機制。

  該指導文件主要在闡釋英國病患退出權行使之整體政策,以及具體落實建議作法,例如:

  1. 退出因應措施。未來英國病患表示退出國家資料共享者,相關機構應配合完整移除資料,並不得保留重新識別(de-identify)可能性;
  2. 退出權行使。因指令不溯及既往適用,因此修正施行前已合法處理提供共享之資料,不必因此中止或另行進行去識別化等資料二次處理;此外,病患得動態行使其退出權,於退出後重新加入國家資料共享體系;應注意的是,退出權的行使,採整體性行使,亦即,病患不得選擇部分加入(如僅同意特定臨床試驗的資料共享);
  3. 例外得限制退出權情形。病患資料之共享,如係基於當事人同意(consent)、傳染病防治(communicable disease and risks to public health)、重大公共利益(overriding public interest)、法定義務或配合司法調查(information required by law or court order)等4種情形之一者,健康與社會照護相關機構得例外限制病患之退出權行使。

  NHS已於今年9月完成國家資料退出服務之資料保護影響評估(DPIA),評估結果認為非屬高風險,因此不會向ICO諮詢資料保護風險。後續英國相關機構應配合於2020年5月前完成病患資料共享退出機制之建置。

相關連結
你可能會想參加
※ 英國國家醫療服務體系(NHS)公布國家資料退出(Opt-out)操作政策指導文件, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8119&no=55&tp=1 (最後瀏覽日:2025/12/11)
引註此篇文章
你可能還會想看
英國政府提交予國會「人工智慧監管規範政策報告」

  英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。   在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。   在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。   在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑   除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。

時尚奢華品牌-Gucci與服飾品牌-Guess間之商標戰爭

  Gucci America, Inc. (Gucci) 於2009年對Guess?, Inc. (Guess)提出商標侵權訴訟,美國聯邦地方法院(United States District Court, SDNY)於2012年5月在無陪審團審判的結果下,判定Guess禁止使用「紅-綠條紋」、「G字菱形圖」、及「環環相扣的G圖」等三項商標,並須賠償Gucci 466萬美元之損害賠償。   緣,Gucci聲明Guess係惡意侵害及仿冒Gucci的商標設計,企圖造成消費者的混淆誤認,並淡化Gucci的商標權,故針對「紅-綠條紋」、「G字菱形」、「環環相扣的G圖形」、及「手寫Guess logo」等商標設計聲明其禁止銷售、販賣及使用,並主張因Guess的惡意仿冒,請求1.2億美元的損害賠償。   Guess於訴訟過程中提出抗辯,(1) Guess無理由仿冒Gucci的商標、 (2) Gucci至少超過七年以上放任Guess使用其所聲稱的Gucci商標設計且未提出訴訟;此外,(3) 消費者並不會將Guess的產品與Gucci的產品誤認,因Guess與Gucci所訴求的客戶市場並不相同。   Scheindlin法官於裁定書中敘明,Gucci無法直接證明因Guess之商標侵害造成其品牌上的極大損害,故最終損害賠償金額僅判定466萬美元 。   本案之法院結果將影響其他時尚品牌之商標或產品外觀近似的侵權案件。

美國確立2305-2360MHz區間行動寬頻服務發展規範

  自2001年以來,美國長期無法解決2305-2360MHz頻段上,相鄰之衛星數位音訊廣播服務(Satellite Digital Audio Radio Service, SDARS)業者與無線通訊服務(Wireless Communications Service,WCS)業者雙方相互干擾之疑慮。此一爭議在2012年10月17日美國聯邦通訊委員會(FCC)發布FCC 12-130再審查命令(Order on Reconsideration FCC 12-130,下稱12-130命令)後獲得解決。   使用頻段位於2305-2320MHz與2345-2360MHz之無線通訊服務(WCS)與位於2320-2345MHz頻段的衛星數位音訊廣播服務(SDARS)由於個別之訊號傳輸技術差異大,並且長久以來無法在干擾處理的議題上達成共識,而抑制了無線通訊服務(WCS)於該頻譜上之發展。為實現WCS業者得於該頻段發展行動寬頻業務之承諾,並確保美國大眾能繼續享有高品質的衛星廣播服務,FCC本次針對2010年所頒布之命令(FCC10-82)進行再次修訂與檢討 ,以確立位於2.3GHz頻帶WCS所屬之頻段得發展新興寬頻服務,並促進SDARS地面中繼起器(terrestrial repeaters)之佈署及運作更加彈性化。   12-130命令之頒布,可視為WCS頻帶發展的重要里程碑。該命令除了確保相鄰頻帶之衛星廣播服務(satellite radio)、航空行動遙測技術(aeronautical mobile telemetry)以及位於美國加州所佈署之深空網路(deep space network)地面站其訊號不受干擾以外,FCC更透過制訂各項參數與管理規則,一方面降低WCS營運時對於SDARS接收者可能產生的潛在干擾,另一方面則幫助位於2.3GHz的WCS業者有能力提供固定或行動寬頻服務,以促進WCS業者與SDARS業者和諧共存。   對於FCC最後決定採用修改管制規範方式釋出該頻段以發展行動寬頻服務之舉,FCC主席Genachowski表示,除有助於鞏固美國身為全球發展LTE技術領導者之地位外,更認為命令中的管制障礙排除模式可幫助未來其他頻段的清理或移頻,增加頻譜使用彈性,並有助於達成國家寬頻計畫(National Broadband Plan’s)所設定之「2015年釋出300MHz總頻寬」、「2020年釋出500MHz總頻寬」目標。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP