德國公布最新DiGA指引,針對「系統數據分析」作補充說明

   德國聯邦藥品暨醫療器材管理署(Bundesinstitut für Arzneimittel und Medizinprodukte, BfArM)於2022年3月18日發布3.1版《數位健康應用程式指引》(Digitale Gesundheitsanwendungen(DiGA) Leitfaden),主要針對3.0版未詳盡之「系統數據分析」(Systematische Datenauswertung)部分作補充說明(參考資料四,頁152以下)。

   德國於2019年12月即透過《數位化創新醫療服務法》(Digitale-Versorgung-Gesetz, DVG)修訂《社會法典》第五編(Sozialgesetzbuch Fünftes Buch, SGB V)關於法定健康保險之規定,賦予數位療法(Digital Therapeutics, DTx)納保給付的法律基礎,BfArM並透過《數位健康應用程式管理辦法》(Digitale Gesundheitsanwendungen-Verordnung – DiGAV)建構處方數位療法(Prescription Digital Therapeutics, PDT)的管理架構並發布DiGA指引,使數位療法得以快速被納入法定健康保險給付範圍。

    開發商之數位健康應用程式取得歐盟醫療器材規則(Medical device regulation, MDR)CE Mark I & IIa級認證之後,得向BfArM提交申請,若該應用程式「符合法規要求」(Anforderungen),並具有「積極醫療效果」(Positive Versorgunseffekte),則該應用程式最快可以在三個月取得永久許可,通過許可將被列入DiGA目錄(DiGA-Verzeichnis)當中;而若僅「符合法規要求」則會被暫時收錄,需在十二個月內補上「積極醫療效果」的證據或報告,以取得永久許可,否則會從DiGA目錄中刪除。DiGA目錄中的應用程式(包含臨時許可)會納入單一支付標準(Einheitlicher Bewertungsmaßstab, EBM),法定健康保險將依該標準表列之金額給付給製造商。

    目前DiGA目錄上共有36款應用程式,當中13款取得永久許可、19款取得臨時許可、另有4款被刪除;三分之一的應用程式係用於治療焦慮或憂鬱等精神疾病,其他尚包括治療耳鳴或肥胖症等疾病。病患近用DiGA目錄中之應用程式的途徑有二:透過醫師開立處方,或是依照醫師診斷之病症自行在DiGA目錄中查找對應的應用程式後提交處方申請。法定健康保險將會依照該應用程式被使用之次數,對照EBM所列之價額後,給付費用予開發商。

 

本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw

相關連結
※ 德國公布最新DiGA指引,針對「系統數據分析」作補充說明, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8896&no=67&tp=1 (最後瀏覽日:2026/01/15)
引註此篇文章
你可能還會想看
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

美國擴大綠色科技與溫室氣體減量專利訴審領航方案

  為鼓勵綠色科技產業發展,美國商業部專利商標局(The U.S. Commerce Department's Patent and Trademark Office , 簡稱USPTO)宣布綠色科技與溫室氣體減量領航方案,USPTO表示,對於綠色科技與溫室氣體減量的專利申請案件,將給予加速審查(accelerate the examination)的優惠。美國商業部長Gary Locke表示,美國的競爭力繫於研發創新能力,協助綠色產業儘速得到專利保護將可以刺激是項產業發展。     除了經濟的誘因,行政上的便利也經常是政府用以推動政策的輔助工具,USPTO希望透過這項新措施,幫助相關產業的研發創新。而在研發創新上,廠商的生產方式或是產品如能更快速取得專利的保護,對於該產業的發展應有正面的效益。USPTO在2009年12月提出這項方案後,在2010年5月21日再次宣布將原方案所正面表列的專利類別(U.S. patent classifications, USPCs)刪除,亦即進一步擴大可申請案件的範圍。     美國在發展綠色科技的腳步上一直未曾停歇,除原有透過綠色公共採購(Green Public Procurement, GPP)來擴大此項產業市場,歐巴馬政府上台後更在2009年10月發布的13514號行政命令(Executive Order)要求聯邦機關訂定2020年以前溫室氣體排放減量的目標,實施策略上,政府機關採購目標以95%符合ENERGY STAR® 、FEMP、EPEAT等規格或認證產品優先。綠色公共採購提供的是市場面的誘因,此番USPTO提供的專利審查過程的加速,無異是給予綠色產業再一劑強心針。USPTO該方案執行期間以1年內3千件申請案為上限,此項措施如能有效刺激產業發展,值得加以觀察。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

美國眾議院法制委員會全體一致通過專利法2007年改革法案

  美國眾議院法制委員會於七月十八日全體一致通過「專利法2007年改革法案」( Patent Reform Act of 2007),根據美國軟體與資訊工業協會( Software & Information Industry Association,簡稱SIIA)的總裁Ken Wasch表示,該修正案的通過是美國專利制度現代化的重要指標,而一個有效率且公正的專利制度對於繼續美國國內經濟發展並領導全世界經濟時具有舉足輕重的地位。眾議院的議員Howard Berman表示,對於美國專利核發品質低落、花費高昂及時間冗長的訴訟程序已經嚴重地阻礙到創新力與創造力。這次修法的目的在於改善專利的品質、嚇阻專利所有人權利的濫用、以異議專利的有效性的方式以提供更有意義且低花費的替代式專利訴訟、並讓美國專利法能與其他國家的專利法調合。   該法案除了通過的部分包括「不正當行為」(Inequitable Conduct )、「犯罪地的限制」(Restrictions on Venue)、「損害賠償的取得」(Awards of Damage)修正。最令人注意的是,刪除了最具爭議的「專利權核准後審查程序」( Posted- granted Review),該程序並無時間的限制,而始得專利侵權訴訟中之被告能夠對專利之有效性向美國專利商標局提出再審的請求。法制委員會對此程序舉行多次公聽會,但修正案仍以增加現有「專利再審制度」( Reexamination)的方式取代之。   實務界認為,本修正案會使得專利的價值降低,而使得一些非以製造產品為公司營運目的,但專事經營擁有並實施專利權為主要歲收來源的「專利巨人」(Patent Tolls)公司生存困難。

TOP