英國政府於2020年2月13日發布了《藥品和醫療器材法》(Medicines and Medical Devices Bill)草案。根據英國國民保健署(NHS)的聲明,新法草案修改以及補充了現有的英國藥品、醫療器材、臨床試驗監管框架,確保英國能夠開發具有開拓性的醫療技術。
本次草案的提出原因之一為英國計劃自2020年12月31日起退出歐盟,過去英國藥品與醫療器材法律乃援引歐盟相關指令與規則(例如:歐盟醫療器材法規,Medical Device Regulation, (EU) 2017/745),一旦脫歐過渡期結束,英國將無法再透過1972年《歐洲共同體法》(ECA 1972)援用歐盟的規定來規範與更新藥品、醫療器材與臨床試驗法律。
本次法案另有幾項新增重點:
目前法案草案在國會二讀階段。
德國科隆行政法院於2015年11月11日判決美商Google公司所提供之Gmail電子郵件服務為德國電信法「電信服務」定義下之規範對象,依據德國電信法第3條24之規定。因此,以該服務之提供者Google公司得依據德國電信法第6條第1項履行其「通報義務」。繼德國聯邦網路局(Bundesnetzagentur)於2012年7月透過正式通知美商Google Inc.需履行德國電信法第6條第1項之「通報義務」。 Google公司指出Gmail不是電信服務,因為Google本身所提供之服務目的不是在於電子信號的傳送。 德國聯邦網路局則指出,因為Google公司的伺服器,以專業術語來說,依據OSI模型(開放式系統互聯通訊參考模型,Open System Interconnection Reference Model, ISO/IEC 7498-1)定義,係有信號傳送服務提供的事實。Google透過獨特的傳送技術傳送數據信號,且針對其所傳輸的有所管控能力。此外,亦應更宏觀的來以電信法立法的宗旨與角度去審視是否此服務應受規範。德國聯邦網路局並不企圖於規範網路世界的一切。但是,像是Gmail或其他OTT服務業者應需要如同傳統電信服務業者般的,重視並履行其資料保護(Datenschutz)、消費者保護(Kundenschutz)、資訊安全(Sicherheit)上的義務。 德國聯邦科隆行政法院判決支持德國聯邦網路局的見解,Google公司因其所提供之Gmail服務應履行德國電信法之通報義務。在定義上是否電信服務,並不是完全以技術面去做認知,更為重要的在於電信法的立法價值初衷。德國聯邦科隆法院已准許透過飛躍上訴(Sprungrevision)的方式將該案送於德國聯邦最高行政法院(Bundesverwaltungsgericht),此案將可能有最高行政法院的判決。若Gmail被認定為係屬「電信服務」,此判決將會針對全德國的OTT服務規範有所影響,需被德國聯邦網路局所監管。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
從歐洲法院實務看資料保護在智慧聯網時代下發展-以資料保存指令無效案和西班牙Google案為例