德國公布最新DiGA指引,針對「系統數據分析」作補充說明

   德國聯邦藥品暨醫療器材管理署(Bundesinstitut für Arzneimittel und Medizinprodukte, BfArM)於2022年3月18日發布3.1版《數位健康應用程式指引》(Digitale Gesundheitsanwendungen(DiGA) Leitfaden),主要針對3.0版未詳盡之「系統數據分析」(Systematische Datenauswertung)部分作補充說明(參考資料四,頁152以下)。

   德國於2019年12月即透過《數位化創新醫療服務法》(Digitale-Versorgung-Gesetz, DVG)修訂《社會法典》第五編(Sozialgesetzbuch Fünftes Buch, SGB V)關於法定健康保險之規定,賦予數位療法(Digital Therapeutics, DTx)納保給付的法律基礎,BfArM並透過《數位健康應用程式管理辦法》(Digitale Gesundheitsanwendungen-Verordnung – DiGAV)建構處方數位療法(Prescription Digital Therapeutics, PDT)的管理架構並發布DiGA指引,使數位療法得以快速被納入法定健康保險給付範圍。

    開發商之數位健康應用程式取得歐盟醫療器材規則(Medical device regulation, MDR)CE Mark I & IIa級認證之後,得向BfArM提交申請,若該應用程式「符合法規要求」(Anforderungen),並具有「積極醫療效果」(Positive Versorgunseffekte),則該應用程式最快可以在三個月取得永久許可,通過許可將被列入DiGA目錄(DiGA-Verzeichnis)當中;而若僅「符合法規要求」則會被暫時收錄,需在十二個月內補上「積極醫療效果」的證據或報告,以取得永久許可,否則會從DiGA目錄中刪除。DiGA目錄中的應用程式(包含臨時許可)會納入單一支付標準(Einheitlicher Bewertungsmaßstab, EBM),法定健康保險將依該標準表列之金額給付給製造商。

    目前DiGA目錄上共有36款應用程式,當中13款取得永久許可、19款取得臨時許可、另有4款被刪除;三分之一的應用程式係用於治療焦慮或憂鬱等精神疾病,其他尚包括治療耳鳴或肥胖症等疾病。病患近用DiGA目錄中之應用程式的途徑有二:透過醫師開立處方,或是依照醫師診斷之病症自行在DiGA目錄中查找對應的應用程式後提交處方申請。法定健康保險將會依照該應用程式被使用之次數,對照EBM所列之價額後,給付費用予開發商。

 

本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw

相關連結
※ 德國公布最新DiGA指引,針對「系統數據分析」作補充說明, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8896&no=64&tp=1 (最後瀏覽日:2026/04/14)
引註此篇文章
你可能還會想看
歐洲民間成立一聯盟,倡議資料主權之重要性

  在今(2021)年1月21日,歐洲數個科技公司、非營利組織與研究機構等民間單位共同發起「現今資料主權」聯盟(Data Sovereignty Now,DSN),宣布將向歐洲各級決策者施加壓力,以確保資料(data)之控制權掌握在生成資料的個人和組織手中。該聯盟認為歐盟執委會應採取決定性之措施,對於在歐洲所生成之資料,應以資料主權原則為基礎,以確保生成資料之個人和組織對其有控制權,以利數位經濟。   而在2020年12月初,澳洲政府首開全球先例提出一新法案,要求Google與Facebook等平台應向澳洲在地媒體支付新聞內容費用,要求雙方進行協商,商討在其平台上顯示之新聞內容所應支付之費用,倘無法達成協議,則由政府之仲裁員決定應支付之金額。此法案引發Google與Facebook高度反彈,不惜以不繼續在澳洲提供服務或停止連結(link)當地媒體之新聞報導作為反擊,要求澳洲政府撤回或修改該法案;然DSN聯盟則認為,Google與Facebook利用其市場主導地位來向澳洲政府施加壓力,正是濫用其資料壟斷權(data monopoly)與壟斷地位之典型例子,為防止科技巨擎將來繼續以此方式勒索政府之唯一方法,即是恢復使用者與平台間之「數位利益平衡」。而Google似有讓步之跡象,根據路透社報導,Google分別已與兩家當地媒體達成協議,將各支付每年3000萬澳幣之費用。該法案是否會如期通過,進而改變或影響此類大型平台與各國政府間資料主權之角力關係,值得持續關注。

簡介美國FTC垃圾電郵法制施行成效報告

歐洲網路暨資訊安全局發布「重要資訊基礎設施下智慧聯網之安全基準建議」

  歐洲網路暨資訊安全局(European Union Agency for Network and Information Security, ENISA)於2017年11月20號發布了「重要資訊基礎設施下智慧聯網之安全基準建議」。該建議之主要目的乃為歐洲奠定物聯網安全基礎,並作為後續發展相關方案與措施之基準點。   由於廣泛應用於各個領域,智慧聯網設備所可能造成之威脅非常的廣泛且複雜。因此,了解該採取與落實何種措施以防範IOT系統所面臨之網路風險非常重要。ENISA運用其於各領域之研究成果,以橫向之方式確立不同垂直智慧聯網運用領域之特點與共通背景,並提出以下可以廣泛運用之智慧聯網安全措施與實作:   (一) 資訊系統安全治理與風險管理   包含了與資訊系統風險分析、相關政策、認證、指標與稽核以及人力資源相關之安全措施。   (二) 生態系管理    包含生態系繪製以及各生態系的關聯。   (三) IT安全建築    包含系統配置、資產管理、系統隔離、流量過濾與密碼學等資安措施。   (四) IT安全管理   帳戶管理與資訊系統管理之相關安全措施。   (五) 身分與存取管理   有關身分確認、授權以及存取權限之安全措施。   (六) IT安全維護   有關IT安全維護程序以及遠端存取之安全措施。   (七) 偵測   包含探測、紀錄日誌以及其間之關聯與分析之安全措施。   (八) 電腦安全事件管理   資訊系統安全事件分析與回應、報告之資安措施。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP