歐洲聯盟法院(CJEU)佐審官 (Advocate General ) Paolo Mengozzi 於今年(2016) 9月8日提出一份不具拘束力之「航空乘客個人資料共享協議(草案)」( European Union on the transfer and processing of passenger name record data (“PNR Agreement”)) 法律意見,認為協議應遵守歐盟憲章有關人權之基本原則。此份法律意見為歐洲聯盟法院首次就國際協議草案,檢視與歐盟憲章有關規範之一致性。
[背景]
PNR協議草案於2010年5月開始協商,2014年6月25日簽署。主要以反恐為目的讓歐盟與加拿大交換航空乘客資訊(包括旅客姓名、旅行日期、行程記錄、機票、聯繫資訊、旅行社等其他有關資訊)。除加拿大之外,歐盟亦與美國、澳洲簽有類似資料共享協議。關注到PNR協議有關隱私、人權之議題,歐盟議會將PNR協議提至歐洲聯盟法院審議。
[法律意見]
佐審官認為,協議同意在特定條件下就限定目標之乘客蒐集其敏感資訊,未違反歐盟憲章;然PNR協議草案仍有部分內容違反歐盟憲章:即草案允許歐盟、加拿大主管機關使用乘客姓名等數據,已逾越預防恐怖組織犯罪和跨國犯罪的必要範圍。
因歐洲聯盟法院去年已廢除歐盟與美國之間之安全港(Safe Harbor)法案,隨後雖起草隱私保護協議(Privacy Shield),但仍有意見質疑隱私保護之完整性。PNR協議草案法律意見之提出,可窺歐盟關於隱私保護之立場。
中國國家互聯網信息辦公室於2025年2月12日公布《個人信息保護合規審計管理辦法》(下稱《辦法》)及其配套指引,自2025年5月1日正式實施。《辦法》及指引的發布,旨在落實《個人信息保護法》中的稽核規定,完善個資合規監督架構,為企業提供執行審計的制度依據。 《辦法》區分合規審計為兩大形式:企業可自行或委託專業機構定期進行審計;另當主管機關發現高風險處理活動或發生重大資料外洩事件時,有權要求企業限期完成外部審計,並提交報告。針對處理規模較大的企業,《辦法》特別規定,凡處理超過1,000萬人個資的業者,須至少每兩年完成一次審計。 針對大規模蒐用個資企業,《辦法》亦強化其配合責任,對於處理超過100萬人資料的企業,須設置個資保護負責人;對大型平台服務業者,則須成立主要由外部人員主導的獨立監督機構,以確保審計客觀性。 在審計執行層面,《辦法》對第三方審計機構的條件、獨立性與保密義務提出具體要求,並禁止將合規審計轉委託,防堵審計品質不一,或個資分享過程增加外洩風險。同時,也規範同一機構或審計負責人不得連續三次審計同一對象,以強化審計公正性。 《合規審計指引》進一步列出具體審查項目,包括處理合法性、告知義務、資料共享、敏感及未成年個資保護、境外傳輸、自動化決策與安全措施等,協助企業全面落實個資合規審查。
美國著作權局發布2022–2026策略計畫美國著作權局於2022年1月20日提出2022–2026五年策略計畫,以培養創造力及豐富文化為主軸,並闡明四個總體目標:著作權服務普及、提升效率、公正專業及增進資料使用。相關內容值得持續關注後續發展,說明如下: 一、著作權服務普及 隨著數位網路技術興起,著作權局已展開如製作溝通素材、回答公眾問題、提供各式主題教育計畫等活動。後續將更專注於讓所有人盡可能了解其服務,如著作權賠償委員會(Copyright Claims Board, CCB)等,創造一個屬於大眾的著作權系統,並豐富公眾可使用創意內容的數量與多樣性。 二、提升效率 著作權局進行包括建立企業著作權系統(Enterprise Copyright System, ECS)使其服務數位化、透過改進公共資訊聯絡中心、倉庫管理和財務系統以提升效率等工程。除持續更新ECS等系統外,未來將以用戶為中心來滿足著作權界的需求。 三、公正專業 著作權局長期以來擔任國會的著作權法律顧問,處理相關立法、政策與實踐問題,並與其他行政機關、法院合作處理各式著作權疑義。除了持續透過立法推動、規則制定及研究來衡平著作權法及政策之外,著作權局將繼續在國際舞台上參與政策討論及提供教育,發揮積極作用,成為全球著作權界的資源。 四、增進資料使用 在提供服務的過程中,著作權局蒐集了各類有價值的著作權相關資訊。此外,其亦網羅與內部運營績效、網路指標有關的其他資料。著作權局將加強資料的開發和使用,並以此作為決策的論證基礎、改進組織績效衡量標準,並使內、外部受眾更容易取得該等資料。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
日本垃圾電郵法制2005年修正動態