歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。
《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。
歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
人工智慧技術用於醫療臨床決策支援之規範與挑戰—以美國FDA為例 資訊工業策進會科技法律研究所 蔡宜臻法律研究員 2018年11月27日 壹、事件摘要 美國係推動人工智慧用於醫療服務的領航國家,FDA轄下的數位健康計畫(Digital Health Program)小組負責針對軟體醫療器材規劃新的技術監管模式,在過去五年中,該計畫發布了若干指導文件 ,嘗試為醫用軟體提供更為合適的監督管理機制。但由於指導文件並非法律,監管的不確定性依舊存在,因此近兩年 FDA推動修法並做成多項草案與工作計畫,望以更具約束力的方式回應軟體醫療器材最新技術於臨床之適用。當中最為重要的法制變革,便是2016年底國會通過之《21世紀治癒法》(21st Century Cures Act)。該法重新定義了醫用軟體的監管範圍,一般認為是對人工智慧醫用軟體的監管進行鬆綁,或有助於人工智慧醫用軟體的開發與上市。然而在新法實施近兩年以來,實務上發現人工智慧的技術特質,會導致在進行某些「臨床決策支援之人工智慧軟體」是否為醫療器材軟體之認定時,產生極大的不確定性。對此FDA也於2017年12月作成《臨床與病患決策支持軟體指南草案》(Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration),望能就部份《21世紀治癒法》及其所修正之《聯邦食品藥物化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)[1]裡的規範文字提供更為詳細的說明。 本文望能為此項法制變革與其後續衍生之爭議進行剖析。以下將在第貳部分重點說明美國2016年頒布的《21世紀治癒法》內容;在第參部份則針對人工智慧技術用於醫療臨床決策支援所發生之爭議進行分析;最後在第肆部份進行總結。 貳、重點說明 2016年12月美國國會頒布了《21世紀治癒法》,在第3060節明確界定了FDA對數位健康產品(Digital Health Products)之管轄範圍,將某些類型的數位健康產品排除在FDA醫療器材(medical device)定義之外而毋須受FDA監管。此規定亦修正了美國《聯邦食品藥物化妝品法》第520節(o)項有關FDA排除納管之軟體類別之規定。 根據新修正的《聯邦食品藥物化妝品法》第520節(o)(1)項,美國對於醫用軟體的監管範疇之劃設乃是採取負面表列,規定以下幾種類型的軟體為不屬於FDA監管的醫用軟體: 行政管理目的[2];或 目的在於非關診斷、治療、緩解、預防或病症處置之健康維持或健康生活習慣養成[3];或 目的在於進行電子化的個人健康紀錄[4];或 目的用於傳輸、儲存、格式轉換、展示臨床研究或其他裝置資料與結果[5];或 同時符合以下四點之軟體: (1)不從體外醫療器材或訊號蒐集系統來讀取、處理或分析醫療影像或訊號[6]。 (2)目的在於展示、分析或印製病患醫療資訊,或其他醫療訊息(例如:偕同診斷之醫療研究、臨床處置指南)[7]。 (3)目的在於替醫療專業人員就疾病或症狀之預防、診斷或處置提供支持或臨床建議[8]。 (4)使醫師在使用該軟體時尚能獨立審查「臨床建議產生之基礎」,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議[9]。 雖然大多數被排除的類別相對無爭議,但仍有一部分引起法律上不小的討論,即《聯邦食品藥物化妝品法》第520節(o)(1)(E)項所指涉的某些類型之臨床決策支援軟體(Clinical Decision Support Software,以下簡稱CDS軟體)。 CDS軟體係指分析數據以幫助醫療手段實施者(例如:醫師)做出臨床決策的軟體。多數以人工智慧為技術基礎的醫療軟體屬於此一類型,比方病理影像分析系統。根據《21世紀治癒法》與《聯邦食品藥物化妝品法》,CDS軟體是否被排除在FDA的管轄範圍之外,取決於該軟體是否「使醫師在使用該軟體時尚能獨立審查『臨床建議產生之基礎』,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議」[10]。若肯定,則將不被視為FDA所定義之醫療器材。為使此一規定更加明確,FDA於2017年12月8日發布了《臨床與病患決策支持軟體指南草案》,該指南草案針對如何評估軟體是否能讓醫師獨立審查臨床建議產生之基礎進行說明。FDA表示該軟體至少要能清楚解釋以下四點[11]: 該軟體功能之目的或用途;及 預期使用者(例如超音波技師、心血管外科醫師);及 用於產生臨床建議的原始資料(例如患者的年齡和性別);及 臨床建議產生背後之邏輯或支持證據 後續方有機會被FDA認定係令醫療專業人員使用該軟體時,能「獨立審查」臨床建議產生之基礎。換言之,指南草案所提的四點,為FDA肯認醫師在使用軟體時尚能「獨立審查」之必要前提。除此之外,指南草案尚稱預期使用者必須能自己做成與軟體相同之判斷,並且要求「用於生成臨床建議與演算邏輯的原始資料必須可被預期使用者辨識、近用、理解,並為公眾可得」[12],進而方有機會符合《聯邦食品藥物化妝品法》第520節(o)(1)(E)(iii)之規定;若該軟體亦同時符合第520節(o)(1)(E)之其他要件,則有望被劃分為非醫療器材而不必受FDA監管。 由於規範內容較為複雜,指南草案亦提供案例說明。比方若一糖尿病診斷軟體是由醫生輸入患者參數和實驗室測試結果(例如空腹血糖、口服葡萄糖耐量測試結果或血紅蛋白A1c測試結果),並且該裝置根據既定臨床指南建議患者的病情是否符合糖尿病的定義,可被FDA認定為「非醫療器材」[13];而諸如分析電腦斷層、超音波影像之軟體,則仍維持屬於醫療器材[14]。 另需注意的是,《聯邦食品藥物化妝品法》在第520節(o)(3)(A)(i)項亦建立「彌補性納回(claw-back)」機制,FDA需遵守通知評論程序(notice-and-comment process)以便及時發現軟體可能對健康造成嚴重危害的風險,並隨時將之納回監管範疇中。同時FDA每兩年必須向國會報告醫療器材軟體的實施經驗[15]。 參、事件評析 《21世紀治癒法》頒布至今兩年,FDA已核准多個以人工智慧為技術核心的軟體,例如在2018年2月13日通過能自動偵測可疑的大血管阻塞(large vessel occlusion, LVO),並迅速通知醫師病人可能有的中風危險的臨床決策支援軟體:Viz.AI Contact application;又比如於2018年4月11日通過利用演算法分析由視網膜攝影機(Topcon NW400)所獲得的影像,快速篩檢糖尿病病人是否有必須由專業眼科醫師治療的視網膜病變的IDx-DR。 然而,在CDS軟體以人工智慧為技術核心時,現有的法規與監管框架依舊有幾點疑慮: 一、「理解」演算法? 根據新修正之《聯邦食品藥物化妝品法》,如果CDS軟體欲不受FDA監管,醫師的決策必須保持獨立性。目前規定只要該醫療產品「企圖」(intended to)使醫師等專業人員理解演算法即可,並不論醫師是否真正理解演算法。然而,若FDA肯認理解演算法對於執行醫療行為是重要的,那麼當CDS係基於機器學習產生演算法時,具體該如何「理解」就連開發者本身都未必能清楚解釋的演算法?有學者甚至認為,CDS軟體是否受到FDA法規的約束,可能會引導至一個典型的認識論問題:「我們是怎麼知道的?(How do we know?)」[16]。對此問題,我們或許需要思考:當醫師無法理解演算法,會發生什麼問題?更甚者,未來我們是否需要訓練一批同時具備人工智慧科學背景的醫療人員?[17] 二、如何要求演算法透明度? 指南草案所提之「清楚解釋臨床建議產生背後之邏輯或支持證據」以及資料來源為公眾可得、醫生對演算法使用的資料來源之近用權限等,被認為是FDA要求廠商應使CDS軟體之演算法透明[18]。但根據FDA指南草案公告後得到的反饋,醫療軟體廠商對此要求認為並不合理。廠商認為,應該從實際使用效益來審視人工智慧或機器學習軟體所提出的臨床建議是否正確,而不是演算法是什麼、怎麼產生[19]。 三、醫療專業人員之獨立專業判斷是否會逐漸被演算法取代?未來醫療軟體廠商與醫療專業人員之責任該如何區分? FDA目前的法規與指南並未直接回應此二問題,惟其對於不被列管之CDS軟體之規定係需使醫師並非主要依賴該軟體提供之臨床建議、醫師能自己做成與軟體相同之判斷。由反面解釋,即FDA肯認部份CDS軟體具備與醫師雷同之臨床診斷、處置、決策之功能,或能部份取代醫師職能,因此需受FDA監管。是故,醫師之專業能力與人工智慧演算法相互之間具有取代關係,已是現在進行式。惟究竟醫師的判斷有多少是倚靠人工智慧現階段尚無法取得量化證據,或需數年時間透過實證研究方能研判。往後,醫療軟體廠商與醫師之責任該如何區分,將會是一大難題。 肆、結語 隨著醫療大數據分析與人工智慧技術的發展,傳統認知上的醫療器材定義已隨之改變。雖然硬體設備仍然在診斷、治療與照護上扮演極為重要的角色,但軟體技術的進步正在重新改寫現代醫療服務執行以及管理模式。這些新產品及服務為醫療器材市場帶來活水,但同時也形成新的監管議題而必須採取適當的調整措施。美國FDA針對近年來呈爆炸性發展的醫療軟體產業不斷調整或制定新的監管框架,以兼顧使用者安全與新技術開展,並於2016年通過了極具改革意義的《21世紀治癒法》,且以此法修正了《聯邦食品藥物化妝品法》。 然而,新法實施後,關於個別醫用軟體是否納為不受FDA監管的醫療器材仍有法律認定上的灰色空間。舉例而言,倍受矚目的以人工智慧為核心技術的CDS軟體,在新法框架下似乎可能存在於監管紅線的兩側。根據新修正之《聯邦食品藥物化妝品法》,一CDS軟體是否屬於醫療器材軟體,關鍵在於醫師能否「獨立審查」從而「非主要依賴」軟體所提供之臨床建議。也由於此要件概念較為模糊,FDA後續在2017年發布《臨床與病患決策支持軟體指南草案》為此提供進一步解釋,然而仍無法妥適處理人工智慧機器學習技術所導致的演算法「該如何理解?」、「透明度該如何認定?」等問題。更甚者,從整體醫療服務體系納入人工智慧協助臨床決策診斷之趨勢觀之,未來醫療專業人員的獨立判斷是否會逐漸被演算法取代?未來人工智慧軟體與醫療專業人員之責任該如何區分?都是醞釀當中的重要議題,值得持續關注。 [1] 21 U.S. Code §360j [2] FD&C Act Sec. 520(o)(1)(A) [3] FD&C Act Sec. 520(o)(1)(B) [4] FD&C Act Sec. 520(o)(1)(C) [5] FD&C Act Sec. 520(o)(1)(D) [6] FD&C Act Sec. 520(o)(1)(E) [7] FD&C Act Sec. 520(o)(1)(E)(i) [8] FD&C Act Sec. 520(o)(1)(E)(ii) [9] FD&C Act Sec. 520(o)(1)(E)(iii) [10] “Enabling such health care professionals to independently review the bases for such recommendations that such software presents so that it is not the intent that such health care professional rely primary on any of such recommendations to make clinical diagnosis or treatment decisions regarding individual patient.” FD&C Act, Sec. 520(O)(1)(E)(iii) [11] FOOD AND DRUG ADMINISTRATION[FDA], Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration (2017), .at 8 https://www.fda.gov/downloads/medicaldevices/deviceregulationandguidance/guidancedocuments/ucm587819.pdf (last visited Sep. 21, 2018) [12] 原文為 “The sources supporting the recommendation or underlying the rationale for the recommendation should be identified and easily accessible to the intended user, understandable by the intended user (e.g., data points whose meaning is well understood by the intended user), and publicly available (e.g., clinical practice guidelines, published literature)”, id, at 8 [13] FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [14]FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [15] 21th Century Cures Act, Sec. 3060(b) [16] Barbara J. Evans & Pilar Ossorio, The Challenge of Regulating Clinical Decision Support Software after 21st Century Cures. AMERICAN JOURNAL OF LAW AND MEDICINE (2018), https://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID3142822_code1078988.pdf?abstractid=3142822&mirid=1 (last visited Sep. 21, 2018) [17] Id. [18] Gail H. Javitt & J.D., M.P.H., ANESTHESIOLOGY, Regulatory Landscape for Clinical Decision Support Technology (2018), http://anesthesiology.pubs.asahq.org/article.aspx?articleid=2669863 (last visited Sep. 21, 2018) [19] REGULATIONS.GOV, Clinical and Patient Decision Support Software; Draft Guidance for Industry and Food and Drug Administration Staff; Availability(Dec. 8, 2017) https://www.regulations.gov/docketBrowser?rpp=25&po=0&dct=PS&D=FDA-2017-D-6569&refD=FDA-2017-D-6569-0001 (last visited Sep. 25, 2018)
日本發布新版「氫能基本戰略」,全面推動氫能產業發展日本經濟產業省召集的「氫能、燃料電池戰略協議會」(水素・燃料電池戦略協議会)於2023年6月6日發布2023年版的「氫能基本戰略」(水素基本戦略),此為日本於2017年首次提出「氫能基本戰略」後,依據近年國際社會2050淨零碳排之宣示,以及烏俄戰爭造成的能源供應危機等情勢變化,再次提出的新版氫能國家型戰略。 本戰略以一個S、三個E作為其氫能發展基本原則,即安全性(Safety)、能源保全(Energy Security)、經濟效益(Economic Efficiency)、環境(Environment);在確保使用安全性的前提下,期望透過發展氫能,實現「氫能社會」理想,兼顧能源供給穩定與經濟成長,同時對環境有所貢獻。基此,本戰略提出擴大氫供給、創造氫需求、建構大規模供應鏈、發展地區性氫能利用、推動技術革新、國際合作、促進國民理解等七項推動方向。 為強化氫產業競爭力,本戰略從製造、運輸、使用等三個面向著手,首先,確立2030年水電解裝置達15GW之目標,支援生產設備設置;其次,建置輸送管路等基礎設施,以降低運輸成本,並確保足夠的氫運輸船以供海上運輸使用;最後,於技術方面,加速燃料電池車、燃氫,以及以氫作為原料之製鋼、化學品製造等技術發展。 針對氫能安全性,則計畫擬定「氫能安全戰略」(水素保安戦略),從「氫安全性相關科學資料取得及共享」、「統一技術標準」、「第三方認證及技術機構之設立」、「人才培育」等面向,全面檢視並調整與氫供應鏈相關的法規範,以確保整體安全性。
日本透過「產業財產權人才培養協力事業」支援發展中國家智慧財產人才培養,消除企業於發展中國家進行經濟投資或活動時所面臨的智慧財產權相關妨礙2024年2月,日本專利廳根據公開招募結果,公布將由一般社團法人發明推進協會執行令和6年度的「產業財產權人才培養協力事業」。 日本自2021年起開始推動「產業財產權人才培養協力事業」,至今年已邁入第4年,且自2024年起預計於南非共和國開設新的專利審查實務課程,以提升南非共和國專利審查官的必要能力。 「產業財產權人才培養協力事業」主要針對日本企業進行海外經濟投資及活動熱門的發展中國家(包含新興國家以及最低度開發國家LDC),提供積極性的人才培養支援,並以強化該國家能安定培養智慧財產相關權利取得與執行的實施人才為目的。在法制整備較為落後的最低度開發國家如柬埔寨,人才培養強化支援的範圍亦包含產業財產權制度的整備。人才培養的對象以智慧財產廳的職員、取締機關的職員以及民間的智慧財產關係業者為重點,透過提升其對於智慧財產權的能力,解決日本企業為在外國取得產業財產權的權利保護需要花費大量時間、日本企業的產業財產權在外國受到侵害的案件逐年增加等問題,以消除日本企業在外國進行經濟投資及活動時的巨大妨礙。 日本專利廳亦針對研修方針下列事項提出建議: 1、消除發展中國家審查延遲的對應方針 於研修中透過增加案例閱讀、資料尋找演習等的講義時間,提升尋找能力及判斷能力;並透過學習日本的IT系統、業務處理過程,提升系統面的支援能力。 2、提升發展中國家審查品質的方針 透過學習日本的基準、判斷手法提升審查、審判的品質;並透過學習日本的管理手法,提升審查品質管理能力。 3、仿冒品對策的對應方針 透過介紹以日本及各國事例為基礎的支援,加深對於仿冒品對策的理解;並透過增加與實施健全執法相關聯的講義時間,加深對於仿冒品對策的一般理解。 4、建構更有效果的研修方法的對應方針 透過設置課程全體的導師制度(mentor),提升研修效果的同時,有效活用「線上」及「實體」連續性的混合研修方法,並透過於實體研修中實施團體討論、在職訓練(OJT)、案件閱讀、模擬裁判(Mock Trial)等,提升實踐能力。 本文後續會持續留意日本「產業財產權人才培養協力事業」的發展,以掌握日本對於發展中國家支援的最新資訊。我國企業如未來預計於發展中國家進行經濟投資或活動時,亦應注意該國智慧財產權之程度,以評估相關風險。 本文同步刊登於TIPS網(https://www.tips.org.tw)
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。