開放非銀行事業從事預付式行動付款服務法制議題之研究

刊登期別
2006年03月
 

※ 開放非銀行事業從事預付式行動付款服務法制議題之研究, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=788&no=66&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
人工智慧技術用於醫療臨床決策支援之規範與挑戰—以美國FDA為例

人工智慧技術用於醫療臨床決策支援之規範與挑戰—以美國FDA為例 資訊工業策進會科技法律研究所 蔡宜臻法律研究員 2018年11月27日 壹、事件摘要   美國係推動人工智慧用於醫療服務的領航國家,FDA轄下的數位健康計畫(Digital Health Program)小組負責針對軟體醫療器材規劃新的技術監管模式,在過去五年中,該計畫發布了若干指導文件 ,嘗試為醫用軟體提供更為合適的監督管理機制。但由於指導文件並非法律,監管的不確定性依舊存在,因此近兩年 FDA推動修法並做成多項草案與工作計畫,望以更具約束力的方式回應軟體醫療器材最新技術於臨床之適用。當中最為重要的法制變革,便是2016年底國會通過之《21世紀治癒法》(21st Century Cures Act)。該法重新定義了醫用軟體的監管範圍,一般認為是對人工智慧醫用軟體的監管進行鬆綁,或有助於人工智慧醫用軟體的開發與上市。然而在新法實施近兩年以來,實務上發現人工智慧的技術特質,會導致在進行某些「臨床決策支援之人工智慧軟體」是否為醫療器材軟體之認定時,產生極大的不確定性。對此FDA也於2017年12月作成《臨床與病患決策支持軟體指南草案》(Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration),望能就部份《21世紀治癒法》及其所修正之《聯邦食品藥物化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)[1]裡的規範文字提供更為詳細的說明。   本文望能為此項法制變革與其後續衍生之爭議進行剖析。以下將在第貳部分重點說明美國2016年頒布的《21世紀治癒法》內容;在第參部份則針對人工智慧技術用於醫療臨床決策支援所發生之爭議進行分析;最後在第肆部份進行總結。 貳、重點說明   2016年12月美國國會頒布了《21世紀治癒法》,在第3060節明確界定了FDA對數位健康產品(Digital Health Products)之管轄範圍,將某些類型的數位健康產品排除在FDA醫療器材(medical device)定義之外而毋須受FDA監管。此規定亦修正了美國《聯邦食品藥物化妝品法》第520節(o)項有關FDA排除納管之軟體類別之規定。   根據新修正的《聯邦食品藥物化妝品法》第520節(o)(1)項,美國對於醫用軟體的監管範疇之劃設乃是採取負面表列,規定以下幾種類型的軟體為不屬於FDA監管的醫用軟體: 行政管理目的[2];或 目的在於非關診斷、治療、緩解、預防或病症處置之健康維持或健康生活習慣養成[3];或 目的在於進行電子化的個人健康紀錄[4];或 目的用於傳輸、儲存、格式轉換、展示臨床研究或其他裝置資料與結果[5];或 同時符合以下四點之軟體: (1)不從體外醫療器材或訊號蒐集系統來讀取、處理或分析醫療影像或訊號[6]。 (2)目的在於展示、分析或印製病患醫療資訊,或其他醫療訊息(例如:偕同診斷之醫療研究、臨床處置指南)[7]。 (3)目的在於替醫療專業人員就疾病或症狀之預防、診斷或處置提供支持或臨床建議[8]。 (4)使醫師在使用該軟體時尚能獨立審查「臨床建議產生之基礎」,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議[9]。   雖然大多數被排除的類別相對無爭議,但仍有一部分引起法律上不小的討論,即《聯邦食品藥物化妝品法》第520節(o)(1)(E)項所指涉的某些類型之臨床決策支援軟體(Clinical Decision Support Software,以下簡稱CDS軟體)。   CDS軟體係指分析數據以幫助醫療手段實施者(例如:醫師)做出臨床決策的軟體。多數以人工智慧為技術基礎的醫療軟體屬於此一類型,比方病理影像分析系統。根據《21世紀治癒法》與《聯邦食品藥物化妝品法》,CDS軟體是否被排除在FDA的管轄範圍之外,取決於該軟體是否「使醫師在使用該軟體時尚能獨立審查『臨床建議產生之基礎』,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議」[10]。若肯定,則將不被視為FDA所定義之醫療器材。為使此一規定更加明確,FDA於2017年12月8日發布了《臨床與病患決策支持軟體指南草案》,該指南草案針對如何評估軟體是否能讓醫師獨立審查臨床建議產生之基礎進行說明。FDA表示該軟體至少要能清楚解釋以下四點[11]: 該軟體功能之目的或用途;及 預期使用者(例如超音波技師、心血管外科醫師);及 用於產生臨床建議的原始資料(例如患者的年齡和性別);及 臨床建議產生背後之邏輯或支持證據   後續方有機會被FDA認定係令醫療專業人員使用該軟體時,能「獨立審查」臨床建議產生之基礎。換言之,指南草案所提的四點,為FDA肯認醫師在使用軟體時尚能「獨立審查」之必要前提。除此之外,指南草案尚稱預期使用者必須能自己做成與軟體相同之判斷,並且要求「用於生成臨床建議與演算邏輯的原始資料必須可被預期使用者辨識、近用、理解,並為公眾可得」[12],進而方有機會符合《聯邦食品藥物化妝品法》第520節(o)(1)(E)(iii)之規定;若該軟體亦同時符合第520節(o)(1)(E)之其他要件,則有望被劃分為非醫療器材而不必受FDA監管。   由於規範內容較為複雜,指南草案亦提供案例說明。比方若一糖尿病診斷軟體是由醫生輸入患者參數和實驗室測試結果(例如空腹血糖、口服葡萄糖耐量測試結果或血紅蛋白A1c測試結果),並且該裝置根據既定臨床指南建議患者的病情是否符合糖尿病的定義,可被FDA認定為「非醫療器材」[13];而諸如分析電腦斷層、超音波影像之軟體,則仍維持屬於醫療器材[14]。   另需注意的是,《聯邦食品藥物化妝品法》在第520節(o)(3)(A)(i)項亦建立「彌補性納回(claw-back)」機制,FDA需遵守通知評論程序(notice-and-comment process)以便及時發現軟體可能對健康造成嚴重危害的風險,並隨時將之納回監管範疇中。同時FDA每兩年必須向國會報告醫療器材軟體的實施經驗[15]。 參、事件評析   《21世紀治癒法》頒布至今兩年,FDA已核准多個以人工智慧為技術核心的軟體,例如在2018年2月13日通過能自動偵測可疑的大血管阻塞(large vessel occlusion, LVO),並迅速通知醫師病人可能有的中風危險的臨床決策支援軟體:Viz.AI Contact application;又比如於2018年4月11日通過利用演算法分析由視網膜攝影機(Topcon NW400)所獲得的影像,快速篩檢糖尿病病人是否有必須由專業眼科醫師治療的視網膜病變的IDx-DR。   然而,在CDS軟體以人工智慧為技術核心時,現有的法規與監管框架依舊有幾點疑慮: 一、「理解」演算法?   根據新修正之《聯邦食品藥物化妝品法》,如果CDS軟體欲不受FDA監管,醫師的決策必須保持獨立性。目前規定只要該醫療產品「企圖」(intended to)使醫師等專業人員理解演算法即可,並不論醫師是否真正理解演算法。然而,若FDA肯認理解演算法對於執行醫療行為是重要的,那麼當CDS係基於機器學習產生演算法時,具體該如何「理解」就連開發者本身都未必能清楚解釋的演算法?有學者甚至認為,CDS軟體是否受到FDA法規的約束,可能會引導至一個典型的認識論問題:「我們是怎麼知道的?(How do we know?)」[16]。對此問題,我們或許需要思考:當醫師無法理解演算法,會發生什麼問題?更甚者,未來我們是否需要訓練一批同時具備人工智慧科學背景的醫療人員?[17] 二、如何要求演算法透明度?   指南草案所提之「清楚解釋臨床建議產生背後之邏輯或支持證據」以及資料來源為公眾可得、醫生對演算法使用的資料來源之近用權限等,被認為是FDA要求廠商應使CDS軟體之演算法透明[18]。但根據FDA指南草案公告後得到的反饋,醫療軟體廠商對此要求認為並不合理。廠商認為,應該從實際使用效益來審視人工智慧或機器學習軟體所提出的臨床建議是否正確,而不是演算法是什麼、怎麼產生[19]。 三、醫療專業人員之獨立專業判斷是否會逐漸被演算法取代?未來醫療軟體廠商與醫療專業人員之責任該如何區分?   FDA目前的法規與指南並未直接回應此二問題,惟其對於不被列管之CDS軟體之規定係需使醫師並非主要依賴該軟體提供之臨床建議、醫師能自己做成與軟體相同之判斷。由反面解釋,即FDA肯認部份CDS軟體具備與醫師雷同之臨床診斷、處置、決策之功能,或能部份取代醫師職能,因此需受FDA監管。是故,醫師之專業能力與人工智慧演算法相互之間具有取代關係,已是現在進行式。惟究竟醫師的判斷有多少是倚靠人工智慧現階段尚無法取得量化證據,或需數年時間透過實證研究方能研判。往後,醫療軟體廠商與醫師之責任該如何區分,將會是一大難題。 肆、結語   隨著醫療大數據分析與人工智慧技術的發展,傳統認知上的醫療器材定義已隨之改變。雖然硬體設備仍然在診斷、治療與照護上扮演極為重要的角色,但軟體技術的進步正在重新改寫現代醫療服務執行以及管理模式。這些新產品及服務為醫療器材市場帶來活水,但同時也形成新的監管議題而必須採取適當的調整措施。美國FDA針對近年來呈爆炸性發展的醫療軟體產業不斷調整或制定新的監管框架,以兼顧使用者安全與新技術開展,並於2016年通過了極具改革意義的《21世紀治癒法》,且以此法修正了《聯邦食品藥物化妝品法》。   然而,新法實施後,關於個別醫用軟體是否納為不受FDA監管的醫療器材仍有法律認定上的灰色空間。舉例而言,倍受矚目的以人工智慧為核心技術的CDS軟體,在新法框架下似乎可能存在於監管紅線的兩側。根據新修正之《聯邦食品藥物化妝品法》,一CDS軟體是否屬於醫療器材軟體,關鍵在於醫師能否「獨立審查」從而「非主要依賴」軟體所提供之臨床建議。也由於此要件概念較為模糊,FDA後續在2017年發布《臨床與病患決策支持軟體指南草案》為此提供進一步解釋,然而仍無法妥適處理人工智慧機器學習技術所導致的演算法「該如何理解?」、「透明度該如何認定?」等問題。更甚者,從整體醫療服務體系納入人工智慧協助臨床決策診斷之趨勢觀之,未來醫療專業人員的獨立判斷是否會逐漸被演算法取代?未來人工智慧軟體與醫療專業人員之責任該如何區分?都是醞釀當中的重要議題,值得持續關注。 [1] 21 U.S. Code §360j [2] FD&C Act Sec. 520(o)(1)(A) [3] FD&C Act Sec. 520(o)(1)(B) [4] FD&C Act Sec. 520(o)(1)(C) [5] FD&C Act Sec. 520(o)(1)(D) [6] FD&C Act Sec. 520(o)(1)(E) [7] FD&C Act Sec. 520(o)(1)(E)(i) [8] FD&C Act Sec. 520(o)(1)(E)(ii) [9] FD&C Act Sec. 520(o)(1)(E)(iii) [10] “Enabling such health care professionals to independently review the bases for such recommendations that such software presents so that it is not the intent that such health care professional rely primary on any of such recommendations to make clinical diagnosis or treatment decisions regarding individual patient.” FD&C Act, Sec. 520(O)(1)(E)(iii) [11] FOOD AND DRUG ADMINISTRATION[FDA], Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration (2017), .at 8 https://www.fda.gov/downloads/medicaldevices/deviceregulationandguidance/guidancedocuments/ucm587819.pdf (last visited Sep. 21, 2018) [12] 原文為 “The sources supporting the recommendation or underlying the rationale for the recommendation should be identified and easily accessible to the intended user, understandable by the intended user (e.g., data points whose meaning is well understood by the intended user), and publicly available (e.g., clinical practice guidelines, published literature)”, id, at 8 [13] FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [14]FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [15] 21th Century Cures Act, Sec. 3060(b) [16] Barbara J. Evans & Pilar Ossorio, The Challenge of Regulating Clinical Decision Support Software after 21st Century Cures. AMERICAN JOURNAL OF LAW AND MEDICINE (2018), https://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID3142822_code1078988.pdf?abstractid=3142822&mirid=1 (last visited Sep. 21, 2018) [17] Id. [18] Gail H. Javitt & J.D., M.P.H., ANESTHESIOLOGY, Regulatory Landscape for Clinical Decision Support Technology (2018), http://anesthesiology.pubs.asahq.org/article.aspx?articleid=2669863 (last visited Sep. 21, 2018) [19] REGULATIONS.GOV, Clinical and Patient Decision Support Software; Draft Guidance for Industry and Food and Drug Administration Staff; Availability(Dec. 8, 2017)  https://www.regulations.gov/docketBrowser?rpp=25&po=0&dct=PS&D=FDA-2017-D-6569&refD=FDA-2017-D-6569-0001 (last visited Sep. 25, 2018)

歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。   指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。   指引的主要內容包括:   個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。   禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。   GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。   工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。   對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。   「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。   工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。   在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

知己知彼,兩岸研發經費比一比

  依據本(2013)年9月26日中國大陸國家統計局、科學技術部、財政部聯合發布之統計公報顯示,去(2012)年全中國投入在研究與試驗發展(R&D)之經費支出達人民幣(以下同)10,298.4億元,較前(2011)年增加1,611.4億元,成長約18.5%。而大陸地區之研究與試驗發展經費約佔其國內生產總值(GDP)之1.98%,較2011年的1.84%提高0.14個百分點。惟同期(2012年,即民國101年)我國研發經費總計為新台幣4,312.96億元,佔臺灣地區GDP比率為3.07%,較中國大陸1.98%之比率略高。   另據大陸統計公報顯示,在中國大陸10,298.4億元之研發經費內,用於「基礎研究」之支出為498.8億元,比2011年增長21.1%;在「應用研究」之經費則為1,162億元,增長13%;至於「試驗發展」經費支出則為最大宗,達8,637.6億元,增長19.2%。總體來說,大陸地區之基礎研究、應用研究和試驗發展3項,佔其研發經費總支出之比率分別為4.8%、11.3%和83.9%;而臺灣地區則是以基礎研究、應用研究及技術發展等3類為區分,在2011年時分別為9.7%、23.7%及66.6%,說明臺灣地區在基礎與應用研究2部份佔研發經費總支出之比率較中國大陸為高。   然而相關研發經費投入至後續產出專利、運用,能否有效結合,或因而強化國家競爭力、減少需用單位間之落差,已是兩岸或其他國家所關切的焦點。因此,為利知己知彼,除了瞭解競爭國家之資源投入情形外,其研發成果相關運用情形等,亦實值得我們後續觀察、研究。

TOP