美國前任總統拜登於2022年底簽署《FDA現代化法2.0》(FDA Modernization Act 2.0, FDAMA 2.0),修改FDA自1938年以來新藥必須實施動物試驗之要求,將進入人體臨床試驗之前階段試驗改稱為「非臨床試驗(nonclinical test)」並許可採取非動物實驗方法,為美國在藥物安全監管方面的重大改變。
在FDAMA 2.0通過後,FDA仍未啟動修改監管法規以符合該法,為了確保改革能加速進行,2024年2月6日美國兩黨參議員合作提出《FDA現代化法案3.0》(FDAMA 3.0) 草案並於同年12月12日參議院無異議通過,惟眾議院在第118屆國會結束前並未討論該案,參議員於2025年2月第119屆國會重新提出該法案。
FDAMA 3.0重點包括:
1. 一般規定:FDA應於1年內,建立針對藥品的非臨床測試方法資格認定流程(Nonclinical Testing Methods Qualification Process);個人可申請特定用途的非臨床測試方法資格認定。
2. 符合資格之非臨床測試方法:非臨床測試方法必須可替代或減少動物測試;且提高非臨床測試對安全性和有效性的預測性,或縮短藥物(含生物製品)的開發時間。
3. 符合資格認定之應用:獲資格認定之非臨床測試方法,FDA應加速相關藥品申請(包括變更申請)的審核流程;允許申請人於藥品申請中引用相關數據與資訊。
4. 本法生效日起兩年內應每年向國會報告流程運行情形,包括已認定的方法類型、申請數量、審查天數、批准數量,以及該流程減少的動物數量估算等。
目前雖然其他國家尚未有類似立法,但歐美均投入大量研發資源減少動物實驗,且FDA亦於近日提出《減少臨床前安全試驗使用動物實驗之路線圖》,後續應密切關注本法案是否通過及相關產業影響。
5G汽車協會(5G Automotive Association, 5GAA)於2020年8月24日發布「弱勢道路使用者保護白皮書」(Vulnerable Road User Protection),點出目前道路交通安全對相關道路使用者保護不足,同時揭示未來車聯網(V2X)可提供整體用路人更安全之道路交通環境。 白皮書指出,道路安全是交通政策關鍵,應透過科技技術與政策制定,共同實現道路安全目標。而根據目前統計數據,弱勢道路使用者(Vulnerable Road User,以下簡稱VRU),包含:「行人」、「騎自行車者」、「騎電動車者」、「道路施工者」、「輪椅使用者」及「滑板或是單輪車使用者」,其占交通事故之傷亡比例最高,幾乎超過半數之死亡人數均為VRU,未來更可能因環境或與健康因素,使道路交通使用者數量不斷提升,對VRU之保護將成為未來各國交通之關鍵。 技術層面,則是車輛感測器偵測VRU、路側設備(Roadside Unit, RSU)、行動邊緣計算技術(Mobile Edge Computing, MEC)等,並進一步應用於車聯網下之不同案例情況:(1)高度風險區域:例如車輛進入行人密度極高的地區,透過感測器發出警訊,以即時警惕人車彼此存在,降低視線死角之事故發生率。(2)VRU與車輛透過裝置溝通:如車輛與VRU之間透過手機等設備傳輸相關資料並通訊。(3)車輛透過安全演算系統與VRU及各項設施交換訊息:此項涉及車聯網通訊應用下,車與車(V2V)和車與交通基礎設施(V2I)通訊,透過C-V2X PC5通訊技術軟體,使車輛、基礎設施與VRU之隨身電子設備之間得以進行通訊,降低事故碰撞發生。 綜上,未來應建立國際通用的車聯網之弱勢道路使用者保護標準,而非因區域而不同之標準,如目前美國汽車工程師協會之個人安全訊息標準(Personal Safety Messages, SAE PSM)及歐盟電信標準協會之弱勢道路使用者分布(Vulnerable Analysis Mapping , ETSI VAM),兩者在保護上即有所差異。VRU之保護服務是未來車聯網應用之關鍵與道路交通安全核心目標之一,相關系統與感測技術亦在不斷提升,未來更能融合感測器技術,並預測行人可能路徑,將全面提升道路安全。
歐盟正式通過資料治理法(DGA),歐盟資料共享發展跨出一大步歐盟理事會(Council of the European Union)於2022年5月16日正式通過了資料治理法(Data Governance Act, 簡稱DGA),本法是歐盟執委會(European Commission)於2020年11月提案,經過一年多的意見徵詢與協商,歐盟議會(European Parliament)於今(2022)年4月6日以501票贊成通過,隨後由歐盟理事會通過公布,本法預計將於2023年8月正式生效。 DGA包含幾大面向,除了針對資料中介服務(data intermediation)、資料利他主義(data altruism)、歐盟資料創新委員會(European Data Innovation Board)等機制建立的規定外,在第二章特別針對公部門所持有之特定類別資料的再利用(reuse)進行規定。當公部門持有的資料涉及第三方受特定法律保護的權利時(如涉及第三方之商業機密、智慧財產、個資等),本法規定公部門只要符合特定條件下可將此類資料提供外界申請利用;若為提供符合歐盟整體利益的服務且具有正當理由和必要性的例外情況下,得授予申請對象專有權(exclusive rights),但授權期間不得超過12個月;歐盟應以相關技術確保所提供資料之隱私和機密性。 再者,各會員國應指定現有機構或創建一個新機構擔任提供上述資料類型的單一資訊點(Single Information Point, SIP),以電子方式公開透明地提供資料清單,包含可申請利用之資料的來源及相關描述(至少包含資料格式、檔案大小、再利用的條件等),以提供中小企業、新創企業便利、可信的資料查詢管道。此外,歐盟執委會應建立一個單一近用點(Single Access Point, SAP),提供一個可搜尋公部門資料的電子登記機制(a searchable electronic register of public-sector data),讓使用者得直接搜尋各會員國單一資訊點(SIP)中所提供的資料及相關資訊。 DGA是歐盟2020年2月發布歐盟資料戰略(European Data Strategy)後的第一個立法,歐盟希望透過本法建立一套能提升資料可利用性和促進公私部門間資料共享的機制,以創造歐盟數位經濟的更高價值。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
歐盟發布數位身分皮夾信賴方登錄實施規則,健全數位信任生態系歐盟執委會於2025年5月6日發布《數位身分皮夾信賴方登錄實施規則》(Commission Implementing Regulation (EU) 2025/848 Laying down Rules for the Application of Regulation (EU) No 910/2024 of the European Parliament and of the Council as regards the Registration of Wallet-Relying Parties)(下稱實施規則),旨在幫助數位身分皮夾(Digital Identity Wallet)用戶確保其身分資料傳輸至可信賴對象,且傳輸之資料並未超過預期用途。 實施規則規範重點如下: (1)建置及維運登錄資料庫:會員國應建置皮夾信賴方(wallet-relying party)登錄資料庫,並指定登錄管理員負責管理及維運。 (2)訂定登錄政策及程序:會員國應訂定登錄政策,內容須涵蓋皮夾信賴方註冊時之身分識別及核實程序、登錄程序所需配套文件及佐證資料、用以確認皮夾信賴方提供資訊正確之真實來源、皮夾信賴方之救濟機制、驗證已註冊信賴方身分之規則及程序,並盡可能採自動化流程。 (3)申請登錄所需資訊:皮夾信賴方申請登錄時應提供之資訊,包括與官方身分紀錄一致之姓名或組織名稱、身分識別資料(如國民身分識別碼、商業登記號碼、加值營業稅號、歐盟經濟營運者註冊及識別碼(Economic Operator Registration and Identification Number))、地址、聯絡資訊、服務類型描述、針對各項預期用途擬請求之資料清單、是否為公務機關等。 (4)簽發相關憑證:會員國應授權至少1家憑證機構簽發皮夾信賴方存取憑證(access certificate),以確認皮夾信賴方之身分。會員國另得授權憑證機構簽發皮夾信賴方登錄憑證(registration certificate),以證明皮夾信賴方所取得之資料未超過預期用途。 (5)暫停或取消登錄資格事由:若有登錄資訊不實、違反登錄政策、請求資料超過預期用途等情事,將暫停或取消皮夾信賴方登錄資格。 (6)紀錄保存年限:登錄及憑證簽發紀錄應保存10年。 此實施規則已於2025年5月27日生效,將於2026年12月24日施行。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。