英國公告「2014年資料保存和調查法」,落實「歐盟基本權利憲章」精神

  英國政府於2014年7月17日公告施行「2014年資料保存和調查法」(Data Retention and Investigation Powers Act 2014)(下稱新法)。新法係為因應歐盟法院2014年4月8日判決,由於全面資料保存不合比例地干預隱私權和「歐盟基本權利憲章」(EU Charter of Fundamental Rights)對個人資料的保護,歐盟2006/24/EC資料保存指令(Data Retention Directive 2006/24/EC)應予廢棄。該指令要求歐盟各國電話及網際網路公司搜集使用者電話及電子郵件通聯紀錄,包括時間、地點及受話人或收件人,並儲存至多兩年。

  新法規範重點摘要如下:

1.相關通訊資料保存:

(1)通訊相關資料保存權力受到管制保障:
新法除規範資料蒐集與保存制度,並規定英國政府得要求國內外電話及網際網路業者搜集其客戶通訊資訊,最長可保存12個月。
(2)於第二節補充前一節用語定義。

2.調查權:

(1)新法授權政府得基於國家安全和預防或偵查重大犯罪而監聽取得國內外通訊相關資訊。
(2)修正「2000年調查權規範」(Regulation of Investigatory Powers Act of 2000)第一編之域外規範。
(3)擴大「電信服務」定義,納入提供接取、促進使用、促進傳播通訊之創建、管理、儲存或透過相類似系統之傳播者。
(4)通訊監聽委員(the Interception of Communications Commissioner)每半年提出報告。
(5)調查權力及規範之複審。

3.開始、持續期間、範圍和簡稱:新法落日條款之規範,2016年12月31日將失其效力。

相關連結
相關附件
※ 英國公告「2014年資料保存和調查法」,落實「歐盟基本權利憲章」精神, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6721&no=64&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

日本IT總合戰略本部提出數位程序修正法案,簡化行政流程並提高使用便利性

  日本IT總合戰略本部於2019年3月18日公告提出「數位程序法案(デジタル手続法案)」,本法案係集結多部法律修正案之包裹法案,包含行政程序網路化法(行政手続オンライン化)、居民基本簿冊法(住民基本台帳法)、官方個人認證法(公的個人認証法)、及個人編號法(マイナンバー法)。該法案的目的,在於應用資通訊技術簡化行政運作並提高使用便利性,藉此增進行政效率,因此在相關法令中明文擬定行政數位化的基本原則,增修推動行政程序線上辦理的共通規定與配套措施,賦予行政機關應履行的各項法定義務,同時為落實各領域推展行政數位化的規劃,制定個別具體規範。   於制定行政數位化基本原則、與增訂推動行政程序線上辦理的共通規定與配套措施之部分,主要為修正原「行政程序網路化法」,更名為「數位行政推進法(デジタル行政推進法)」,定位該法目標與功能為促進社會整體數位化,使國家、地方公共團體、民間業者、國民與其他人於從事各種社會活動時,均能享受到資通訊技術帶來的便利性。該法要求的基本原則,包含數位優先(digital first, 藉由數位手段一體化完成各項手續或服務)、免去重複提供資訊(once only,曾提供的資訊得被保留供再次使用)以及一步到位(connected one-step,謀求複數的程序或服務簡化為一步到位)。至於推動行政程序線上辦理的共通規定與配套措施,則包含要求地方公共團體須致力於達成行政程序線上辦理的目標,授權主管機關訂定得辦理網路身分認證與支付手續費等數位化法定程序、要求行政機關提出實現行政程序線上辦理與廢除紙本附件流程的資訊系統整備計畫等。   另一方面,針對各領域推展行政數位化的具體規範,該法案預備修正「居民基本簿冊法」、「官方個人認證法」以及「個人編號法」,主要內容包含:1. 保存個人電子認證資訊等相關官方服務的適用對象擴及旅外國民,同時得發行旅外國民之官方個人認證之電子證明書與個人編號卡,使其得透過網路使用相關的行政電子化服務;2. 長期且確實保存本人過去的居住遷徙紀錄,增設住民票註銷後原有相關記錄仍予以保留的「除票」制度,使國民過去的居住地紀錄,不會因為變更戶籍、依法註銷原戶籍地的住民票而消失;3. 過去使用官方個人認證之電子證明書與個人編號卡時須輸入密碼,官方個人認證法修正案則授權主管機關增設其他不需輸入密碼的使用方式,以呼應擴大電子證明書使用範圍的政策規劃;4. 賦予個人編號IC卡(マイナンバーカード)作為獨立有效之身分證明文件的地位,廢止原依法需和個人編號IC卡併用的紙本通知卡(通知カード)制度,免去個人住所等基本資料變更時,需同步更正通知卡紙本登載資訊的行政程序,減輕主管機關負擔。

歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。   歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。   該草擬意見歸結數項結論如下: (1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。 (2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。 (3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。 (4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。   由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP