為強化推動歐盟行動健康醫療之發展,歐盟執委會於2014年4月10日以綠皮書之形式,向大眾(包括產業、國家與地方機關、專業醫療機構、研究機構、非政府組織、病患協會等)提出mHealth行動健康醫療徵詢意見,在2015年1月12日時公布「行動健康醫療(mHealth)綠皮書徵詢意見書」(摘要版)(Summary report on the public consultation on the green paper on mobile health)。 此份徵詢意見書有十個主題,包含:資料保護、法制架構、病人安全與資訊透明、行動健康在醫療體系中之定位及平等接取、互操作性(interoperability)、給付模式(reimbursement models)責任、研發與創新 、國際合作和網路業者參與市場。從報告顯示,大多數的人認為資料保護是最重要的,特別是建立用戶信任的保護隱私與安全之工具(例如資料加密(data encryption)與認證機制(authentication mechanisms)),並且認為強化資料保護法制。 再者,有將近一半的被徵詢人要求透過認證方案或資格標籤等方法做更進一步的病人保護與資料透明。第三,行動醫療主要是透過網路進行,然而有網路業者表示,因為目前仍缺少明確的管制架構、互操作性以及共通品質標準,所以對業者而言是難以進入市場的。第四,也有許多被徵詢人認為行動醫療的性能和安全要求,應透過立法、指導原則或自我管制(self-regulation)管理。另外也有提出應確保行動醫療與電子健康病歷(Electronic Health Records , EHRs)之互操作性,以便於照護延續性與用於研究目的上。 經過此次徵詢,歐盟執委會對於推動行動健康醫療發展,規劃將在2015年間將會與相關業者討論政策措施,包括立法、自我或共同管制(self- or co-regulation)、政策指導原則等。
第三方支付法制問題研析 歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
從歐洲法院Case C-527/15看新興數位裝置對著作權指令詮釋範圍之影響