世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素:

(1)文件化與透明度(Documentation and transparency)
開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。

(2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches)
開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。

(3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation)
開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。

(4)資料品質(Data quality)
開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。

(5)隱私與資料保護(Privacy and data protection)
開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。

(6)參與及協作(Engagement and collaboration)
開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9093&no=64&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
科法觀點
你可能還會想看
英國衛生部將建立之病歷資料庫挑動隱私保護議題之神經

  英國衛生部(Department of Health)於5月21日公布新的國家衛生政策,政策中指出,未來將建立資料庫,透過建設完善醫藥資訊之流通分享機制可改善對於病患之醫療服務以及促進學術研究之發展,當局承諾將採取適當之保護措施以妥善保護當事人之個人資料。然而,該政策同時亦承認對於病患資料匿名化之措施仍可能侵害當事人之隱私權。   當局指出,為了保護當事人之權益,將個人資料匿名化實屬必要,然而,對於醫療院所而言,縱使已經將個人資料匿名化,但透過其他相關資訊包含年齡、性別、血型、身高或者體重等,仍可能間接識別出當事人之個人資料。   衛生部重申建立資料庫分享當事人之個人醫療資料將可有效促進學術研究之發展,但將會透過當事人同意以及確實匿名化之機制保護當事人之個人資料。另外,衛生部於該政策中指出未來將要求英國之醫療機構必須於內部建立系統,使患者、當事人可有管道查詢其留存於資料庫之資料。   英國之隱私保護專員指出,由於此政策涉及敏感性個人資料之蒐集,所以其針對衛生部之政策規畫將持續關注,以確保當事人之隱私權。

南韓司法單位擬懲處黃禹錫等四人

  去(2005)年11月,全球幹細胞研究先驅-韓國首爾大學黃禹錫(Hwang Woo-suk)教授承認其研究有國際醫學倫理瑕疵,引發軒然大波。其後,相關的醜聞頻傳,黃教授更被控研究造假,使得原本以前瞻之胚胎幹細胞研究技術(即體細胞核轉置技術”somatic cell nuclear transfer”)獨步全球的韓國科學界,研究信譽遭受嚴重打擊。   偵辦「黃禹錫科研論文造假醜聞案」的南韓檢察當局,經連日傳訊相關人員後,正考慮對黃禹錫等四人採取司法懲處。 對於被查出不法獲得並使用科研用卵子的黃禹錫,檢方考慮依據違反「生命倫理及安全之法律」等條文予以懲處。   據指出,檢方在調查中,掌握了2004年及2005年刊登在「科學」雜誌上的科研論文,黃禹錫等人捏造體細胞複製幹細胞,和為病患複製培育胚胎幹細胞的科研數據,矇騙了整個科學界。調查顯示,黃禹錫去年十一月檢驗幹細胞的遺傳基因(DNA)指紋之前,似乎真的不曉得根本就不存在為病患量身打造複製培育胚胎幹細胞的事實。但檢方卻證實黃禹錫確實指示屬下研究員,將部分照片等科研數據和資料,自我膨脹等造假的事實。   由於生醫研究給許多病患帶來新的治療希望,因此其通常會以實際行動(即自願捐贈研究用檢體、協助經費募集等)表達支持。惟研究瑕疵或造假則會讓病患及一般民眾認為遭受欺騙,進而影響其未來捐贈檢體或以受試者身份參與生醫研究之意願。可見生醫倫理並不僅是道德呼籲,也是生醫研究能否順利進行、生醫研究能否生根發芽的重要基石。 黃禹錫案之相關報導可參見 The Economists, December 3 rd 2005, p. 71; The Economist, December 24 th 2005, p. 109-110

紐西蘭通過網路侵權三振法案

  紐西蘭於今年4月14日通過遏制線上非法檔案分享的著作權修正法案。甫通過的的修正法案廢除並取代了紐西蘭1994年著作權法92A條款。新法賦予著作權人可以向網路服務提供者提交侵權使用者的侵權證據,並要求網路服務提供者通知該使用者停止侵權行為之權利。若侵權使用者在三次通知後仍未停止侵權行為,則著作權人可以在著作權法院提出損害賠償請求,此一請求賠償金額最高可達1萬5千元紐幣。   而備受爭論的斷網措施,在本次修正法案中暫時被保留而未立刻生效,待觀察前述通知與損害補償機制是否能有效的遏制網路侵權行為,若前述機制仍無法達成制止侵權行為的效果時,斷網措施條款將由議會決定生效適用,賦予著作權人可以向地方法院請申請命令,強制網路服務提供者中止該侵權帳戶的網路服務,中止期間最高可達六個月。   該法案是在2010年2月23日在紐西蘭國會中第一次被提出。日前通過後,將於今年9月1日正式生效,惟手機網路服務部分,則延後於2013年10月才會納入適用範圍。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP