世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素:

(1)文件化與透明度(Documentation and transparency)
開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。

(2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches)
開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。

(3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation)
開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。

(4)資料品質(Data quality)
開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。

(5)隱私與資料保護(Privacy and data protection)
開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。

(6)參與及協作(Engagement and collaboration)
開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9093&no=67&tp=1 (最後瀏覽日:2026/01/17)
引註此篇文章
科法觀點
你可能還會想看
「何謂行動健康?」

  行動健康是指利用行動應用程式與智慧手機、平板、或無線裝置等行動裝置結合,運用這些裝置的核心功能,如聲音、簡訊、定位系統、藍芽、或3G、4G行動通信技術等,作為健康照護用途,以提升傳統照護品質與管理健康,減少醫療成本耗費。倘若行動應用程式具有醫療用途,可用於診斷、治療、預防疾病等,則屬於醫療器材,且該應用程式通常為醫療器材之附件,或與行動裝置結合使用而成為醫療器材,對此則稱之為行動醫療。   隨著智慧聯網(IoT)的應用,國際間對於行動健康與醫療的發展日益著重,除了鼓勵創新研發之外,也紛紛制訂法規政策因應,包括美國食品藥物管理局(FDA)在2013年9月公布行動醫療應用程式指導原則(Mobile Medical Application, Guidance For Industry and Food and Drug Administration Staff),並於2015年2月修訂;歐盟2012年提出eHealth 行動計畫(eHealth Action Plan 2012-2020),並在2014年4月針對行動健康的管理規範議題開放各類相關人士進行公共諮詢,後續在2015年1月公布諮詢結果。我國亦在2015年4月公布醫用軟體分類參考指引,以提供產業開發產品、申請查驗登記之參考。   未來,行動健康與醫療的發展將持面臨挑戰,相關問題包括行動健康與行動醫療之區分標準、行動醫療應用程式與傳統醫療軟體之監管差異、行動健康應用程式開發使用之自律性規範、使用者或病人隱私與個人資料保護、以及在研發過程中涉及的研究倫理等議題。

德、法、盧森堡三國推動跨國境數位測試場域(Digitalen Testfeld))「自動化與聯網駕駛」計畫測試應用

  德國,法國和盧森堡共同推動「數位測試場」:自動化與聯網駕駛之跨國境測試。三國交通部門部長在2017年9月15日法蘭克福國際車展中決定擴大測試場域的範圍。令自動駕駛的測試場域,現在擴及到三國,並進行跨國界的測試。   三方「數位測試場域」推動的目的在於將科技從實驗室帶到跨國境的實地測試。「行動4.0是邁向歐洲單一市場的一個重要里程碑」,德國交通部長希望「自動駕駛領域是由歐洲來主導的市場」。並由德、法與盧森堡共同簽署三邊「數位測試場域」協議。   二月初同意的「數位測試場域」,是德法在2016年9月開始執行的「法德電動與數位方案」計畫跨國界測試自動駕駛的一部分。以共同合作,兩國希望推動電動車和自動駕駛領域的創新。如今又加入第三個國家:盧森堡。   目前,測試場域的選擇,從德國薩蘭邦梅爾茲,經過薩爾路易和薩爾布呂肯,最後到法國梅斯。此次,將盧森堡的貝唐堡設置的測試車道納入成為一個跨越三個國家的車道測試圈。   計畫所進行測試著重以下應用:車間通信(車對車)和與透過LTE/5g等行動通訊信號與基礎設施通訊;自動化和聯網駕駛下的超車、切車、煞車;普及化的智慧交通引導系統與預警服務。   數位測試領域讓工業,研究和政策獲得在實際交通狀況的經驗。研究資金提供對象,聯邦政府將提供約1億歐元給測試領域的研究項目。研究測試補助重點在以下領域:駕駛人和車輛之間的相互作用;交通管理和規劃;聯網與資料管理;社會層面。

美國國土安全部發布「2024人工智慧路線圖」,確保AI安全開發與部署

美國國土安全部(Department of Homeland Security, DHS)於2024年3月17日發布「2024人工智慧路線圖」(2024 Artificial Intelligence Roadmap)(下稱AI路線圖),設立三大目標,將偕同旗下機關與產官學研各界合作,確保AI的安全開發與部署,保護國家關鍵基礎設施安全,以強化國家安全。 美國拜登總統於2023年10月30日簽署的第14110號總統行政命令《安全可靠且值得信賴的人工智慧開發暨使用》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)(下稱AI總統行命令),要求DHS應管理使用於關鍵基礎設施與資通安全的AI、制定全球AI標準並推廣、降低利用AI造成具有大規模殺傷力武器攻擊之風險、保護AI智慧財產權、以及吸引AI領域人才,以促使、加強AI開發與部署等事項。為踐行上述事項,DHS制定AI路線圖,其三大目標如下: (1) 負責任的使用AI以推進國安任務(Responsibly Leverage AI to Advance Homeland Security Mission):透過建置AI基礎建設、建立AI系統測試與評估(Testing and Evaluation, T&E)、推動AI人才培育計畫等行動措施,帶領主管機關負責任的使用AI,以保護國家安全及避免AI對關鍵基礎設施的風險,確保AI於使用過程中係尊重個人隱私、保護公民權利與自由。 (2) 促進AI安全與資安(Promote Nationwide AI Safety and Security):利用AI技術改善與預防關鍵基礎設施之安全與資安風險、制定關鍵基礎設施之AI使用指引、以及成立AI安全與資安委員會(AI Safety and Security Board, AISSB),彙集產官學研各界專家意見。 (3) 透過擴大AI國際合作來引領AI發展(Continue to Lead in AI Through Strong, Cohesive Partnerships):將透過與產官學研各界合作,擴大AI的國際合作,並持續與公眾進行意見交流與分享,推廣AI政策或相關行動措施;DHS亦將持續與參眾議院及其他主管機關匯報AI相關之工作進度與未來規劃,以提升部門AI的透明度,並建立公眾對AI的信任。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP