歐洲資料保護監督官12月7日發表正式意見,針對歐盟執委會就AFSJ大型資訊技術系統設立作業管理機構之立法計畫,提出隱私保護法律要求

  歐洲資料保護監督官(European Data Protection Supervisor, EDPS)於2009年12月7日,針對歐盟執委會(European Commission)近年所提出關於設立歐盟「自由、安全及司法領域」(area of freedom, security and justice, AFSJ)大型資訊技術系統(IT System)作業管理機構之立法計畫,基於個人資料保護之立場提出正式法律意見。如此一立法計畫順利通過,該機構預計將擔負起包括「申根資訊系統」(Schengen Information System, SIS II)、「簽證資訊系統」(Visa Information System, VIS)、「歐洲指紋系統」(European Dactylographic System, Eurodac)及其他歐盟層級之大規模資訊技術系統之作業管理(operational management)任務。

 

  根據EDPS首長Peter Hustinx表示,由於前述各項系統之資料庫中均包含諸如護照內容、簽證及指紋等大量敏感個人資料,因此儘管設立單一之作業管理機構,可以在相當程度上釐清歐盟各部門職責歸屬及準據法適用之問題,但如此一機構欲取得合法性,其活動範圍及相關責任即必須在立法中獲得明確界定,否則即可能產生個人資料濫用(misuse of personal data)及資料庫「功能潛變」(function creep)之風險。而基於此一分析,Hustinx認為目前執委會之機構立法計畫尚未符合個人資料保護要求。

 

  此外,針對後續立法進程,EDPS建議除應確實釐清該管理機構之活動範圍是否包括整體AFSJ,亦或僅限於邊境檢查及難民與移民事務;執委會與該機構之關聯性與責任等重要問題外,是否可在缺乏相關經驗及實證評估下,即直接將所有歐盟層級之大型資訊技術系統與資料庫歸入該機構管轄,顯然亦有商榷餘地。EDPS就此認為,透過立法界定「大型資訊系統」之範圍,並且採取資料庫分次進入該管理機構責任範圍之方式,應係日後執委會可以努力之方向。

相關連結
※ 歐洲資料保護監督官12月7日發表正式意見,針對歐盟執委會就AFSJ大型資訊技術系統設立作業管理機構之立法計畫,提出隱私保護法律要求, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3210&no=64&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
電力市場2.0--2015德國電力市場改革最新發展

自動駕駛車輛之分級與責任

  所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。   而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。   德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。   故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。   修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。

瑞士聯邦委員會發布氣候揭露規則,規範企業非財務資訊揭露義務標準

  瑞士聯邦委員會(The Swiss Federal Council)於2022年11月23日發布氣候揭露規則(L'ordonnance relative au rapport sur les questions climatiques),旨在補充《瑞士債法典》(Code des Obligations)企業非財務資訊揭露義務之標準,要求瑞士大型企業呈現明確、可供比較的氣候資訊,並於2024年1月1日起生效。   依照《瑞士債法典》第32章第6節「非財務事項之透明度(Transparency on Non-Financial Matters)」規定,擁有500位以上員工,且資產負債表總額為2000萬瑞士法郎以上或營業額超過4000萬瑞士法郎之上市公司、銀行和保險公司(下稱大型企業)每年應揭露非財務資訊。氣候揭露規則就此進一步補充該章節的內容,要求大型企業依照國際公認標準揭露氣候資訊,要點如下:   (1)明定包括氣候對大型企業造成的影響與企業活動對氣候造成的影響在內的資訊,皆應於大型企業的非財務資訊報告中公布。   (2)將氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosure, TCFD)公布之「TCFD建議書(Recommendations of the Task Force on Climate-related Financial Disclosures)」與附件「TCFD建議書之實施(Implementing the Recommendations of the Task Force on Climate-related Financial Disclosures)」納為瑞士大型企業氣候揭露標準,包括治理、戰略、風險管理及關鍵指標與目標四項主題,並應留意建議書「適用所有部門(all-sectors)」與「個別部門(certain sectors)」之指引。   (3)如未依規定揭露者,則應說明其遵循氣候揭露義務的其他方式,或說明無須遵循的正當理由。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

TOP