歐盟於2018年11月間通過Regulation (EU) 2018/1807,即促進非屬個人資料(下簡稱個資)之資料流通規則(下簡稱規則),藉以促進歐洲單一數位市場之規模經濟,並於2019年05月28日開始適用,據此,歐盟執委會亦因應該規則而頒布指引(COM(2019) 250 final),以釐清規則與GDPR之互動關係。
該規則開宗明義表示其制定係為了促進非屬個資之資料(下稱資料)流通,即其適用範圍包含(1)提供予歐盟境內之用戶使用,或(2)在歐盟境內之人依其需要所衍生者等資料,但排除GDPR第4條所定義之個資,故不排除GDPR之適用可能,申言之,若資料集中同時含有資料與個資,則流通則應分別適用本規則及指引(資料部份)與GDPR(個資部份)。
此外,為有效達成資料流通,各個歐盟成員國原則上禁止作出資料在地化要求(Data Localisation Requirements),例外僅於公共安全之前提下,且有充分的理由,方得做出合比例性之要求,並於單一資訊網站上即時更新資料在地化要求之清單,不過至遲在2021年05月30日前,成員國須確認其境內之相關規範已無前開例外之資料在地化要求。
又,為使歐盟各成員國就資料流通之無礙溝通,各成員國應設單一聯繫窗口,而在(1)歐盟相關規定或(2)國與國間不具特定合作機制,致成員國無法取得資料之近用權限時,該成員國之單一聯繫窗口得向資料所屬成員國之單一聯繫窗口發出協助請求,並附上請求之原因說明與近用資料之法律依據。
綜上,本規則及其指引與GDPR及其相關規定,對於資料與個資等流通分別建構出穩固的法律系統與環境。
近年來,人工智慧(Artificial Intelligence, AI)於藥品生命週期各階段的應用快速發展,有望促進藥品研發創新並縮短上市時程。然而,AI技術開發、部署、運用與維護皆涉及複雜的治理議題,為確保AI產出結果準確且可靠,並保障藥品安全且有效,有必要於藥品監管體系建立AI管理機制。 美國食品及藥物管理局(Food and Drug Administration, FDA)與歐洲藥品管理局(European Medicines Agency, EMA)於2026年1月14日共同發布《藥品開發優良人工智慧實務指導原則》(Guiding Principles of Good AI Practice in Drug Development),建立AI應用於藥品生命週期的治理框架。 該文件提出10項指導原則,包括: 1.AI開發與使用須符合倫理原則並落實以人為本的價值 2.採取風險為本的方法進行驗證、風險緩解與監督 3.遵循相關法律、倫理、技術、科學、資安及與監管標準,包括優良實務規範(GxP) 4.明確界定使用情境(Context of Use) 5.整合AI技術與使用情境之跨領域專業能力 6.強化資料治理與文件化 7.依循系統設計與軟體工程最佳實務進行模型開發並採用適切資料 8.採行風險為本的效能評估 9.落實AI技術生命週期管理 10.提供清楚且必要的資訊揭露 兩大監管機關強調,該文件可作為未來制定共識標準與監管指引的基礎,並促進國際監管調和與合作。預期將成為各國監管機關建構AI應用於藥品監管體系相關政策、法規與指引的重要參考。
瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準瑞士聯邦委員會(The Swiss Federal Council)於2022年11月23日發布氣候揭露規則(L'ordonnance relative au rapport sur les questions climatiques),旨在補充《瑞士債法典》(Code des Obligations)企業非財務資訊揭露義務之標準,要求瑞士大型企業呈現明確、可供比較的氣候資訊,並於2024年1月1日起生效。 依照《瑞士債法典》第32章第6節「非財務事項之透明度(Transparency on Non-Financial Matters)」規定,擁有500位以上員工,且資產負債表總額為2000萬瑞士法郎以上或營業額超過4000萬瑞士法郎之上市公司、銀行和保險公司(下稱大型企業)每年應揭露非財務資訊。氣候揭露規則就此進一步補充該章節的內容,要求大型企業依照國際公認標準揭露氣候資訊,要點如下: (1)明定包括氣候對大型企業造成的影響與企業活動對氣候造成的影響在內的資訊,皆應於大型企業的非財務資訊報告中公布。 (2)將氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosure, TCFD)公布之「TCFD建議書(Recommendations of the Task Force on Climate-related Financial Disclosures)」與附件「TCFD建議書之實施(Implementing the Recommendations of the Task Force on Climate-related Financial Disclosures)」納為瑞士大型企業氣候揭露標準,包括治理、戰略、風險管理及關鍵指標與目標四項主題,並應留意建議書「適用所有部門(all-sectors)」與「個別部門(certain sectors)」之指引。 (3)如未依規定揭露者,則應說明其遵循氣候揭露義務的其他方式,或說明無須遵循的正當理由。
歐盟資料保護工作小組修正通過GDPR個人資料當事人同意指引因應歐盟「通用資料保護規則」(The General Data Protection Regulation,或譯為一般資料保護規則,下簡稱GDPR)執法之需,針對個人資料合法處理要件之一當事人「同意」,歐盟資料保護工作小組(Article 29 Data Protection Working Party, WP29)特於本(2018)年4月10日修正通過「當事人同意指引」(Guidelines on consent under Regulation 2016/679),其中就有效同意之要件、具體明確性、告知、獲得明確同意,獲有效同意之附加條件、同意與GDPR第6條所定其他法定要件之競合、兒少等其他GDPR特別關切領域,以及依據指令(95/46/EC)所取得之當事人同意等,均設有詳盡說明與事例。 GDPR第4條第11項規定個人資料當事人之同意須自由為之、明確、被告知,及透過聲明或明確贊成之行為,就與其個人資料蒐集、處理或利用有關之事項清楚地表明其意願(unambiguous indication)並表示同意。殊值注意的是,如果控制者選擇依據當事人同意為任何部分處理之合法要件,須充分慎重為之,並在當事人撤回其同意時,即停止該部分之處理。如表明將依據當事人同意進行資料之處理,但實質上卻附麗於其他法律依據,對當事人而言即顯係重大不公平。 換言之,控制者一旦選擇當事人同意為合法處理要件,即不能捨同意而就其他合法處理的基礎。例如,在當事人同意之有效性產生瑕疵時,亦不允許溯及援引「利用合法利益」(utilise the legitimate interest)為處理之正當化基礎。蓋控制者在蒐集個人資料之時,即應揭露其所依據之法定要件,故必須在蒐集前即決定其據以蒐集之合法要件為何。
美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。 《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括: 1.對決策過程進行描述,比較分析其利益、需求與預期用途; 2.識別並描述與利害關係人之協商及其建議; 3.對隱私風險和加強措施,進行持續性測試與評估; 4.記錄方法、指標、合適資料集以及成功執行之條件; 5.對執行測試和部署條件,進行持續性測試與評估(含不同群體); 6.對代理商提供風險和實踐方式之支援與培訓; 7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款; 8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄; 9.自透明度的角度評估消費者之權利; 10.以結構化方式識別可能的不利影響,並評估緩解策略; 11.描述開發、測試和部署過程之紀錄; 12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源; 13.無法遵守上述任一項要求者,應附理由說明之; 14.執行並記錄其他FTC 認為合適的研究和評估。 當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。