世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素:

(1)文件化與透明度(Documentation and transparency)
開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。

(2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches)
開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。

(3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation)
開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。

(4)資料品質(Data quality)
開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。

(5)隱私與資料保護(Privacy and data protection)
開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。

(6)參與及協作(Engagement and collaboration)
開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9093&no=67&tp=1 (最後瀏覽日:2025/12/05)
引註此篇文章
科法觀點
你可能還會想看
美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

美國聯邦貿易委員會 (FTC)「Non-Compete Clause Rule 」(禁止「競業禁止」條款)對於企業營業秘密保護的影響與建議

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國聯邦貿易委員會(Federal Trade Commission,下稱FTC)於2024年4月23日發布一項禁止「競業禁止」的最終規定「Non-Compete Clause Rule」(下稱FTC禁止「競業禁止」規定),近期關於該規定效力之相關訴訟引起美國各界廣泛的討論,有執業律師於2024年8月22日撰文提出企業面對該規定是否失效的不確定性,建議及早因應並加強營業秘密保護機制。 關於FTC禁止「競業禁止」規定,旨於美國境內禁止企業與離職員工簽訂競業禁止條款,該規定原預計將於2024年9月4日生效,生效後企業將不能再透過競業禁止約定作為營業秘密保護措施或訴訟上主張,而據FTC統計,約有3,000萬人(近五分之一的美國人)可能因此受到影響。然而2024年8月20日,「Ryan v. FTC」案中,美國德克薩斯州北區聯邦地區法院基於「認為FTC可能超越了其法定授權範圍以及規定過於寬泛」等原因,發布了一項全國性禁令,將導致FTC禁止「競業禁止」規定不會按計劃於2024年9月4日生效之效力,但FTC將會上訴。 對此,有相關實務界律師撰文指出,面對前述判決結果及各州的法規不一導致對於競業禁止條款仍有質疑的情況下,建議企業仍應及早因應並加強營業秘密保護機制,如: 1. 加入跨部門人員的協作:如熟悉企業營運過程中重要的關鍵競爭機密資訊的「業務與財務人員」、了解系統、流程管理之「資訊技術和安全」人員,以及與人員管理、教育訓練相關之「人力資源部門」等人員。 2. 建立合法的保護計畫:承上,該篇文章建議組織應藉由上述人員協助,檢視並強化落實以下機密(營業秘密)保護措施,包括: (1)營業秘密範圍確定:該篇文章提出企業應識別其機密(營業秘密)資訊,並篩選出最重要的類別。 (2)網路與環境設備管理:應確認企業(如:系統、設備、社交媒體等)政策是否足以保護不同類別的機密資訊,並符合法律(如:勞動法)要求,並重新檢視現行資訊安全機制之適當性,如網路安全策略及相關工具適用性、資訊洩漏風險點為何、目前權限管控合理性等。 (3)員工管理:該篇文章建議,企業需確認教育訓練實施,是否足夠向相關人員說明機密資訊和營業秘密對公司的重要性、是否納入對公司相關重要內容(如反壟斷法規的要求);於工作安排上,企業可透過建立人員管理備援機制(即避免一個業務只由單一員工負責),避免業務連續性與資訊安全中斷;於現行企業之保密契約、禁止招攬條款(Non-Solicitation Agreements)、入職/離職契約等契約上,建議確認是否「合法、未過度限制員工、涵蓋所有競爭敏感資訊(如員工及相關客戶或供應商的敏感資訊),在可能適用的地區具有可執行性(法律效力)」等。 (4)外部活動管理:對於外部合作對象,如合作夥伴、競爭對手等,本文稱「勞動力競爭對手(Labor Competitors)」的互動,如資料提供、簽屬合約之合法性等。 綜上所述,競業禁止在國際上的適用性,可能因應機關、各州州法、訴訟等因素受到各種挑戰,導致訴訟上可主張的權利減少,因此執業律師更建議企業應及早審查現行機制並加強或建立營業秘密保護措施加強對於機密資訊的保護。本文建議企業可透過資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)檢視既有管理制度並因應趨勢變動,以PDCA管理循環方式調整精進管理以達到管控目的,建立扎實的企業營業秘密管理制度。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。   歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。   該草擬意見歸結數項結論如下: (1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。 (2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。 (3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。 (4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。   由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

德國機器人和人工智慧研究

  人工智慧及機器人分為以下4種類型:首先是工廠裡的作業機器人,可自主性重複執行相同任務,例如拾取、放置、運輸物品,它們在侷限的環境中執行具體事務,而且通常是在周圍無人的圍籬區內作業,然而目前趨勢已有越來越多機器人可安全執行人機協作的任務。第二種係用在傳統製造外的專業機器人,例如:擠奶機器人、醫院手術機器人。第三種是生活中常見的消費產品機器人,常用於私人目的,例如:吸塵器機器人、割草機器人。最後是人工智慧軟體,此軟體可應用於醫療診斷輔助系統、語音助理系統中,目前越來越多人工智慧軟體結合復雜的感測器和聯網裝置,可執行較複雜之任務,例如:自動駕駛車。   德國人工智慧研究中心(Deutsche Forschungszentrum für Künstliche Intelligenz,DFKI)為非營利性公私合作夥伴(PPP)之研究機構,與歐盟,聯邦教育及研究部(BMBF)、德國聯邦經濟及能源部(BMWi),各邦和德國研究基金會(DFG)等共同致力於人工智慧之研究發展,轄下之機器人創新中心(Robotics Innovation Center,RIC)亦投入水下、太空、搜救、物流、製造業等各領域機器人之研究,未來將著重於研究成果的實際運用,以提升各領域之生產力。2016年6月,各界專家於德國聯邦議院的數位議程委員會中,呼籲立法者應注意機器人技術對經濟,勞動和社會的影響,包括技術及產品的安全標準、機器人應用之法律歸責問題、智慧財產權的歸屬與侵權問題,隱私權問題、及是否對機器人課稅等,進行相關修法監管準備。   解決台灣人口結構老化、勞動力短缺與產業競爭力等問題已是當務之急,政府為促進台灣產業轉型,欲透過智慧機械創新與物聯網技術,促使產業朝智慧化生產目標邁進。未來除需持續精進技術研發與導入產業業升級轉型外,應將人工智慧納入政策方針,並持續完備法制環境建構及提升軟實力,以確保我國技術發展得以跟上世界潮流。

TOP