區塊鏈技術具有去中心化、透明性、開放性、自治性、訊息不可篡改、匿名性等六大特徵,可加密記錄該系統上所有使用者之行為資訊,並使該資訊不易篡改。其最初被運用在虛擬貨幣比特幣(Bitcoin)的建構,發展至今應用已拓展至諸多領域,包括對智慧財產權的保護。美國的blockai網站即是將區塊鏈技術運用於智財保護的實例之一,美國過去由國會圖書館負責著作權之管理之作法,在程序上曠日費時且效率不彰,故blockai於2015年創立於美國舊金山,旨在提供著作人更簡單有效的選擇。其作法係由著作人於blockai註冊帳號後進行作品之註冊並取得一相應之著作權證書,並由blockai以區塊鏈技術建立公眾資料庫,透過區塊鏈不可篡改、透明開放等技術特徵來證明作品確由著作人創作,利於後續舉證維權。現階段blockai開立之證書雖未被授與法律上地位,但依區塊鏈的技術特徵,可望成為法庭攻防上著作人有力之科學證據。
揆諸我國相關法律,我國非採著作登記制,著作人為維護自身權利需先證明系爭著作為自己所創作,惟訴訟實務上著作人多半舉證不易。若參考美國作法導入區塊鏈技術落實著作權保障,或可作為科技整合法律之新標竿。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
人工智慧技術用於醫療臨床決策支援之規範與挑戰—以美國FDA為例 資訊工業策進會科技法律研究所 蔡宜臻法律研究員 2018年11月27日 壹、事件摘要 美國係推動人工智慧用於醫療服務的領航國家,FDA轄下的數位健康計畫(Digital Health Program)小組負責針對軟體醫療器材規劃新的技術監管模式,在過去五年中,該計畫發布了若干指導文件 ,嘗試為醫用軟體提供更為合適的監督管理機制。但由於指導文件並非法律,監管的不確定性依舊存在,因此近兩年 FDA推動修法並做成多項草案與工作計畫,望以更具約束力的方式回應軟體醫療器材最新技術於臨床之適用。當中最為重要的法制變革,便是2016年底國會通過之《21世紀治癒法》(21st Century Cures Act)。該法重新定義了醫用軟體的監管範圍,一般認為是對人工智慧醫用軟體的監管進行鬆綁,或有助於人工智慧醫用軟體的開發與上市。然而在新法實施近兩年以來,實務上發現人工智慧的技術特質,會導致在進行某些「臨床決策支援之人工智慧軟體」是否為醫療器材軟體之認定時,產生極大的不確定性。對此FDA也於2017年12月作成《臨床與病患決策支持軟體指南草案》(Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration),望能就部份《21世紀治癒法》及其所修正之《聯邦食品藥物化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)[1]裡的規範文字提供更為詳細的說明。 本文望能為此項法制變革與其後續衍生之爭議進行剖析。以下將在第貳部分重點說明美國2016年頒布的《21世紀治癒法》內容;在第參部份則針對人工智慧技術用於醫療臨床決策支援所發生之爭議進行分析;最後在第肆部份進行總結。 貳、重點說明 2016年12月美國國會頒布了《21世紀治癒法》,在第3060節明確界定了FDA對數位健康產品(Digital Health Products)之管轄範圍,將某些類型的數位健康產品排除在FDA醫療器材(medical device)定義之外而毋須受FDA監管。此規定亦修正了美國《聯邦食品藥物化妝品法》第520節(o)項有關FDA排除納管之軟體類別之規定。 根據新修正的《聯邦食品藥物化妝品法》第520節(o)(1)項,美國對於醫用軟體的監管範疇之劃設乃是採取負面表列,規定以下幾種類型的軟體為不屬於FDA監管的醫用軟體: 行政管理目的[2];或 目的在於非關診斷、治療、緩解、預防或病症處置之健康維持或健康生活習慣養成[3];或 目的在於進行電子化的個人健康紀錄[4];或 目的用於傳輸、儲存、格式轉換、展示臨床研究或其他裝置資料與結果[5];或 同時符合以下四點之軟體: (1)不從體外醫療器材或訊號蒐集系統來讀取、處理或分析醫療影像或訊號[6]。 (2)目的在於展示、分析或印製病患醫療資訊,或其他醫療訊息(例如:偕同診斷之醫療研究、臨床處置指南)[7]。 (3)目的在於替醫療專業人員就疾病或症狀之預防、診斷或處置提供支持或臨床建議[8]。 (4)使醫師在使用該軟體時尚能獨立審查「臨床建議產生之基礎」,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議[9]。 雖然大多數被排除的類別相對無爭議,但仍有一部分引起法律上不小的討論,即《聯邦食品藥物化妝品法》第520節(o)(1)(E)項所指涉的某些類型之臨床決策支援軟體(Clinical Decision Support Software,以下簡稱CDS軟體)。 CDS軟體係指分析數據以幫助醫療手段實施者(例如:醫師)做出臨床決策的軟體。多數以人工智慧為技術基礎的醫療軟體屬於此一類型,比方病理影像分析系統。根據《21世紀治癒法》與《聯邦食品藥物化妝品法》,CDS軟體是否被排除在FDA的管轄範圍之外,取決於該軟體是否「使醫師在使用該軟體時尚能獨立審查『臨床建議產生之基礎』,因此醫師所做成之臨床診斷或決策,並非主要依賴該軟體提供之臨床建議」[10]。若肯定,則將不被視為FDA所定義之醫療器材。為使此一規定更加明確,FDA於2017年12月8日發布了《臨床與病患決策支持軟體指南草案》,該指南草案針對如何評估軟體是否能讓醫師獨立審查臨床建議產生之基礎進行說明。FDA表示該軟體至少要能清楚解釋以下四點[11]: 該軟體功能之目的或用途;及 預期使用者(例如超音波技師、心血管外科醫師);及 用於產生臨床建議的原始資料(例如患者的年齡和性別);及 臨床建議產生背後之邏輯或支持證據 後續方有機會被FDA認定係令醫療專業人員使用該軟體時,能「獨立審查」臨床建議產生之基礎。換言之,指南草案所提的四點,為FDA肯認醫師在使用軟體時尚能「獨立審查」之必要前提。除此之外,指南草案尚稱預期使用者必須能自己做成與軟體相同之判斷,並且要求「用於生成臨床建議與演算邏輯的原始資料必須可被預期使用者辨識、近用、理解,並為公眾可得」[12],進而方有機會符合《聯邦食品藥物化妝品法》第520節(o)(1)(E)(iii)之規定;若該軟體亦同時符合第520節(o)(1)(E)之其他要件,則有望被劃分為非醫療器材而不必受FDA監管。 由於規範內容較為複雜,指南草案亦提供案例說明。比方若一糖尿病診斷軟體是由醫生輸入患者參數和實驗室測試結果(例如空腹血糖、口服葡萄糖耐量測試結果或血紅蛋白A1c測試結果),並且該裝置根據既定臨床指南建議患者的病情是否符合糖尿病的定義,可被FDA認定為「非醫療器材」[13];而諸如分析電腦斷層、超音波影像之軟體,則仍維持屬於醫療器材[14]。 另需注意的是,《聯邦食品藥物化妝品法》在第520節(o)(3)(A)(i)項亦建立「彌補性納回(claw-back)」機制,FDA需遵守通知評論程序(notice-and-comment process)以便及時發現軟體可能對健康造成嚴重危害的風險,並隨時將之納回監管範疇中。同時FDA每兩年必須向國會報告醫療器材軟體的實施經驗[15]。 參、事件評析 《21世紀治癒法》頒布至今兩年,FDA已核准多個以人工智慧為技術核心的軟體,例如在2018年2月13日通過能自動偵測可疑的大血管阻塞(large vessel occlusion, LVO),並迅速通知醫師病人可能有的中風危險的臨床決策支援軟體:Viz.AI Contact application;又比如於2018年4月11日通過利用演算法分析由視網膜攝影機(Topcon NW400)所獲得的影像,快速篩檢糖尿病病人是否有必須由專業眼科醫師治療的視網膜病變的IDx-DR。 然而,在CDS軟體以人工智慧為技術核心時,現有的法規與監管框架依舊有幾點疑慮: 一、「理解」演算法? 根據新修正之《聯邦食品藥物化妝品法》,如果CDS軟體欲不受FDA監管,醫師的決策必須保持獨立性。目前規定只要該醫療產品「企圖」(intended to)使醫師等專業人員理解演算法即可,並不論醫師是否真正理解演算法。然而,若FDA肯認理解演算法對於執行醫療行為是重要的,那麼當CDS係基於機器學習產生演算法時,具體該如何「理解」就連開發者本身都未必能清楚解釋的演算法?有學者甚至認為,CDS軟體是否受到FDA法規的約束,可能會引導至一個典型的認識論問題:「我們是怎麼知道的?(How do we know?)」[16]。對此問題,我們或許需要思考:當醫師無法理解演算法,會發生什麼問題?更甚者,未來我們是否需要訓練一批同時具備人工智慧科學背景的醫療人員?[17] 二、如何要求演算法透明度? 指南草案所提之「清楚解釋臨床建議產生背後之邏輯或支持證據」以及資料來源為公眾可得、醫生對演算法使用的資料來源之近用權限等,被認為是FDA要求廠商應使CDS軟體之演算法透明[18]。但根據FDA指南草案公告後得到的反饋,醫療軟體廠商對此要求認為並不合理。廠商認為,應該從實際使用效益來審視人工智慧或機器學習軟體所提出的臨床建議是否正確,而不是演算法是什麼、怎麼產生[19]。 三、醫療專業人員之獨立專業判斷是否會逐漸被演算法取代?未來醫療軟體廠商與醫療專業人員之責任該如何區分? FDA目前的法規與指南並未直接回應此二問題,惟其對於不被列管之CDS軟體之規定係需使醫師並非主要依賴該軟體提供之臨床建議、醫師能自己做成與軟體相同之判斷。由反面解釋,即FDA肯認部份CDS軟體具備與醫師雷同之臨床診斷、處置、決策之功能,或能部份取代醫師職能,因此需受FDA監管。是故,醫師之專業能力與人工智慧演算法相互之間具有取代關係,已是現在進行式。惟究竟醫師的判斷有多少是倚靠人工智慧現階段尚無法取得量化證據,或需數年時間透過實證研究方能研判。往後,醫療軟體廠商與醫師之責任該如何區分,將會是一大難題。 肆、結語 隨著醫療大數據分析與人工智慧技術的發展,傳統認知上的醫療器材定義已隨之改變。雖然硬體設備仍然在診斷、治療與照護上扮演極為重要的角色,但軟體技術的進步正在重新改寫現代醫療服務執行以及管理模式。這些新產品及服務為醫療器材市場帶來活水,但同時也形成新的監管議題而必須採取適當的調整措施。美國FDA針對近年來呈爆炸性發展的醫療軟體產業不斷調整或制定新的監管框架,以兼顧使用者安全與新技術開展,並於2016年通過了極具改革意義的《21世紀治癒法》,且以此法修正了《聯邦食品藥物化妝品法》。 然而,新法實施後,關於個別醫用軟體是否納為不受FDA監管的醫療器材仍有法律認定上的灰色空間。舉例而言,倍受矚目的以人工智慧為核心技術的CDS軟體,在新法框架下似乎可能存在於監管紅線的兩側。根據新修正之《聯邦食品藥物化妝品法》,一CDS軟體是否屬於醫療器材軟體,關鍵在於醫師能否「獨立審查」從而「非主要依賴」軟體所提供之臨床建議。也由於此要件概念較為模糊,FDA後續在2017年發布《臨床與病患決策支持軟體指南草案》為此提供進一步解釋,然而仍無法妥適處理人工智慧機器學習技術所導致的演算法「該如何理解?」、「透明度該如何認定?」等問題。更甚者,從整體醫療服務體系納入人工智慧協助臨床決策診斷之趨勢觀之,未來醫療專業人員的獨立判斷是否會逐漸被演算法取代?未來人工智慧軟體與醫療專業人員之責任該如何區分?都是醞釀當中的重要議題,值得持續關注。 [1] 21 U.S. Code §360j [2] FD&C Act Sec. 520(o)(1)(A) [3] FD&C Act Sec. 520(o)(1)(B) [4] FD&C Act Sec. 520(o)(1)(C) [5] FD&C Act Sec. 520(o)(1)(D) [6] FD&C Act Sec. 520(o)(1)(E) [7] FD&C Act Sec. 520(o)(1)(E)(i) [8] FD&C Act Sec. 520(o)(1)(E)(ii) [9] FD&C Act Sec. 520(o)(1)(E)(iii) [10] “Enabling such health care professionals to independently review the bases for such recommendations that such software presents so that it is not the intent that such health care professional rely primary on any of such recommendations to make clinical diagnosis or treatment decisions regarding individual patient.” FD&C Act, Sec. 520(O)(1)(E)(iii) [11] FOOD AND DRUG ADMINISTRATION[FDA], Clinical and Patient Decision Support Software-Draft Guidance for Industry and Food and Drug Administration (2017), .at 8 https://www.fda.gov/downloads/medicaldevices/deviceregulationandguidance/guidancedocuments/ucm587819.pdf (last visited Sep. 21, 2018) [12] 原文為 “The sources supporting the recommendation or underlying the rationale for the recommendation should be identified and easily accessible to the intended user, understandable by the intended user (e.g., data points whose meaning is well understood by the intended user), and publicly available (e.g., clinical practice guidelines, published literature)”, id, at 8 [13] FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [14]FOOD AND DRUG ADMINISTRATION[FDA], supra note 11 [15] 21th Century Cures Act, Sec. 3060(b) [16] Barbara J. Evans & Pilar Ossorio, The Challenge of Regulating Clinical Decision Support Software after 21st Century Cures. AMERICAN JOURNAL OF LAW AND MEDICINE (2018), https://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID3142822_code1078988.pdf?abstractid=3142822&mirid=1 (last visited Sep. 21, 2018) [17] Id. [18] Gail H. Javitt & J.D., M.P.H., ANESTHESIOLOGY, Regulatory Landscape for Clinical Decision Support Technology (2018), http://anesthesiology.pubs.asahq.org/article.aspx?articleid=2669863 (last visited Sep. 21, 2018) [19] REGULATIONS.GOV, Clinical and Patient Decision Support Software; Draft Guidance for Industry and Food and Drug Administration Staff; Availability(Dec. 8, 2017) https://www.regulations.gov/docketBrowser?rpp=25&po=0&dct=PS&D=FDA-2017-D-6569&refD=FDA-2017-D-6569-0001 (last visited Sep. 25, 2018)
美國專利與商標局拒絕以AI為發明人的專利申請美國專利與商標局於2020年4月27日拒絕人工智慧(AI)為發明人之申請並闡明發明人僅限於自然人。本案是美國專利與商標局首次拒絕人工智慧為發明人之申請,同時本最終審查意見(下稱:本意見書)也是第一次闡明發明人僅限於自然人。本意見書也被收錄在美國專利與商標局「人工智慧」、「首席專利審查官最終審查意見」之頁面,作為指標案例。 本意見書是在回應2020年1月20日專利申請申復案(Petition)之審查意見。回顧本專利申請案之基本資料表,發明人名字為「DABUS」、姓氏部分僅以括號註明「由人工智慧自行產生的發明」。本案法定代理人及申請人均為Stephan L. Thaler。Stephan L. Thaler表示,DABUS是一個神經網路系統且「有創意的機器」。美國專利與商標局表示,綜觀美國專利法的用詞(如:Whoever)及立法脈絡,均可得知發明人指的是自然人。具體而言,發明人必須是貢獻發明概念(Conception)的人,專利審查程序手冊(MPEP)定義「發明概念」是一個將發明人「創造行為之心智的完整呈現」(the complete performance of the mental part of the inventive act),僅有自然人具有「心智」(Mental/ Mind),因此發明人僅限於自然人。本審查意見又援引Beech Aircraft Corp. v. EDO Corp.判決,指出「發明人僅限於自然人」。所以,將專利申請基本資料表的姓名欄位填上「DABUS(由人工智慧自行產生的發明)」並不符合美國專利法第115條(35 U.S. Code § 115)。 本案於2019年7月29日提出,隨即於2019年8月8日被美國專利與商標局以「申請文件欠缺,不符合發明人與其繼受人之規範」(35 U.S. Code § 115和37 CFR 1.64)拒絕受理。幾番修正往返後,美國專利與商標局於2019年12月17日仍以「申請文件欠缺」不予受理,Stephan L. Thaler續行申復。美國專利與商標局於2020年4月27日做出本意見書。同一由DABUS創造的發明,但由Ryan Abbott作為申請人的案件,已被歐洲專利局和英國智慧財產局於2019年12月以雷同的理由拒絕。目前美國專利與商標局、歐洲專利局、英國智慧財產局面對人工智慧為發明人之專利申請,立場都是發明人僅限自然人。
馬里蘭州去氧核醣核酸採集法(DNA Collection Act)引發隱私爭議2009年,馬里蘭州立法通過去氧核醣核酸(下稱DNA)採集法(DNA Collection Act),允許警方向已經被起訴但尚未定讞之犯罪嫌疑人採集DNA樣本,其適用對象主要在於暴力犯罪或一級竊盜案件。對此問題,美國大約有26州立有與馬里蘭州類似的法案,例如維吉尼亞州的執法單位對於暴力犯罪在經過逮捕後即可進行DNA採集。然而,該法案卻引發了隱私權利與公眾安全之平衡的爭論。 此次爭議爆發於Alonzo Jay King Jr. v. State of Maryland案,案件中Alonzo Jay King Jr.在2009年被起訴暴力攻擊,且因此被警方採集DNA,而後又在經過DNA比對之後,發現與2003年一宗強制性交案件所遺留下的DNA樣本符合,並據此判決Alonzo Jay King Jr.強制性交罪。本案經Alonzo Jay King Jr.上訴高等法院後,高等法院認為調查人員採集其基因資料並以之與舊案件進行比對,已經侵犯了美國憲法第四修正案所賦予人民的合理隱私期待,屬於不合法的搜索,並據此判決禁止向犯罪嫌疑人採集DNA樣本。本案目前正在最高法院上訴中,而最高法院首席法官John Roberts日前發布了一份命令,阻止了高等法院判決的生效,並使得馬里蘭州在最高法院作出判決之前仍然能夠採集DNA;全案預計將在10月進行聽證,未來,最高法院將如何判決,值得吾人注意。
日本內閣官房提出未來投資戰略報告加速機器人實用及活化日本內閣官房日本經濟再生總合事務局(内閣官房日本経済再生総合事務局)在2017年6月9日第10次「未來投資會議」中提出未來投資戰略2017報告(未来投資戦略2017~Society 5.0 の実現に向けた改革~),在成長的戰略成果(5)日本第四次產業革命及新經濟的展開中,分別對於機器人實用、物聯網(IOT)、大數據(BIG DATA)、人工智慧(AI)等提出成果及未來計畫。 機器人加速實用化:首先,機器人廣泛利用在商業設施、機場等日常生活空間,於2016年9月羽田機場設置機器人實驗室「Haneda Robotics Lab」,利用機器人改善服務並補充勞動力。有關打掃清潔、協助移動、查詢服務等17種機器人,將進行實證實驗。而路面協助行走型機器人「RT.1」已經完成,於2015年生活協助型機器人之安全性得到國際認證,其後發展之「RT.2」將使用於長期照顧層面。其次,開發農業使用之自動駕駛拖車,並提供工作實際狀況和土壤狀況之電子管理服務。今年6月開始商業化之自動駕駛顯示器,可以監控自動駕駛耕作機器進行自動耕作等。在物流管理方面,於2018年將於山間部等地區進行無人機的包裹遞送,2020年將在都會區全面無人包裹遞送。預計將與日立等相關公司,進行物流管理系統之開發及活用福島機器人測試場域。