世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素:

(1)文件化與透明度(Documentation and transparency)
開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。

(2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches)
開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。

(3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation)
開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。

(4)資料品質(Data quality)
開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。

(5)隱私與資料保護(Privacy and data protection)
開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。

(6)參與及協作(Engagement and collaboration)
開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9093&no=64&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
科法觀點
你可能還會想看
英國Royal Free國家健康服務基金信託與Google DeepMind間的資料分享協議違反英國資料保護法

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2017年7月公告Royal Free國家健康服務基金信託(Royal Free London NHS Foundation Trust)與Google人工智慧研究室DeepMind之間的資料分享協議,違反資料保護法(Data Protection Act)。   該協議之目的在使DeepMind利用Royal Free所提供的醫療資料,開發一款名為Streams的應用程式,透過人工智慧系統分析得知病患惡化之情況,並以手機警示方式通知臨床醫生。由於涉及病患的可識別個人資料且人數多達160萬人,協議的合法性,尤其在資料分享是否經病患同意方面,受到質疑。   Royal Free與DeepMind主張因應用程式是直接對病患進行醫療照護,具有病患默示同意(implied consent)之正當基礎,且資料經加密後才傳給DeepMind。惟經ICO調查結果如下: 就資料將被使用作為應用程式測試一事,病患未獲充分告知亦無合理期待; 雖執行隱私影響評估,惟僅於資料傳給DeepMind後才進行,無法發揮事前評估作用; 應用程式尚在測試階段,無法說明揭露160萬病患紀錄的必要性與手段合理性。   目前Royal Free已承諾改進以確保其行為合法性。ICO之認定突顯創新不應以「減損法律對基本隱私權保障」作為代價。

英國次世代5G策略

英國文化、媒體暨體育部2017年3月8日發布「次世代行動技術:英國的5G策略」,此舉將會加速英國網路基礎建設更新並促進智慧聯網之發展。這份策略書提出了幾個重要方面來採取行動: 建構經濟實例:英國政府計畫建立新的5G試驗場,和企業共同合作發展5G科技。此試驗場預計同時在城市和偏遠地區進行,以了解不同地區環境下建設的效益,且與Ofcom合作了解目前環境與法規障礙。 調適法規:政府會持續檢查相關法規是否需要修正,並與試驗場合作了解現行法規是否適當。 地方區域的治理與能力建構:意識到地方區域於建構基礎建設的重要性,因此英國政府正在諮詢地方政府如何在地方區域進行5G建設,將會將地方政府、政府部門、土地擁有者和企業等集合組成工作小組進行5G策略的諮詢。 覆蓋率與能力匯流:政府將於2017年底前了解人類生活、工作與旅遊需達成之高品質覆蓋率要素,並於2025年前達成這些要素目標。 確保安全的5G布建:5G試驗場將會與重要安全組織如國家網路安全中心合作,以支持和發展新的安全建築來達到消費者對於5G的期待與需求。 頻譜:政府將要求Ofcom檢視現行頻譜授權策略並於2017年底提出報告,以促進4G至5G轉型。 科技與標準:政府將會持續和標準機關合作,監督市場安全與供應者的發展。

《2022年保護美國智慧財產法》公布至今,所造成的影響仍有待觀察

繼2023年1月5日美國總統拜登(Joe Biden)簽署《2022年保護美國智慧財產法》(Protecting American Intellectual Property Act of 2022)並生效後,至今尚未見任何根據該法規展開行動的報告,不過各界仍相當關注該法案的動向,因為其與過往的經濟制裁措施有著顯著的差異。 《2022年保護美國智慧財產法》與其他經濟制裁措施之差異包括: 1.僅針對營業秘密之重大竊盜,不包括其他智慧財產權如專利、著作權等; 2.未要求行為人主觀是為他國政府之利益而竊取營業秘密; 3.法規中使用到關鍵術語的標準及定義較少; 4.某些制裁措施具有強制性; 5.制裁的對象不僅包括竊取美國營業秘密者,也包括從他人竊取美國營業秘密中獲利者; 6.營業秘密盜竊行為須有合理可能性或已經對美國國家安全、外交、經濟、金融穩定構成重大威脅。 雖然《2022年保護美國智慧財產法》即將成為重要的政府工具,以解決營業秘密損失及其對國家安全之影響,且允許當事人面臨營業秘密訴訟或威脅時,將制裁措施武器化,但仍有部分問題有待解決,包括: 1.營業秘密受各州法律管轄,各州之管理機構是否會制定自己的營業秘密定義標準? 2.若在訴訟進行期間實施制裁措施,將產生甚麼影響? 3.是否產生《經濟間諜法》(Economic Espionage Act)之待審案件?美國司法部(US Department of Justice)是否必須參與? 4.判斷是否制裁的標準與美國司法部所採用的《經濟間諜法》之標準是否相同?若不同,則差異為何? 5.當事人或法院是否知道判定營業秘密盜竊行為時該適用什麼證據標準?(法規僅規定由總統決定) 6.法院能否將此類制裁措施作為其決策的一部分? 儘管《2022年保護美國智慧財產法》所衍生的問題及將產生的影響尚有待觀察,但建議企業採取下列合規措施,以避免成為美國新制裁措施的目標,包括: 1.制定並實施合規的營業秘密保護政策與程序; 2.對員工進行教育訓練,使其瞭解有關《2022年保護美國智慧財產法》的基礎知識以及對營業秘密之管理要求; 3.對有可能被盜竊營業秘密的流程進行稽核審查。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

自動駕駛車輛之分級與責任

  所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。   而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。   德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。   故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。   修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。

TOP