違反荷蘭資料保護法,Google恐遭罰1500萬歐元

  Google為了提供客製化的廣告服務,利用搜尋引擎、Youtube、Gmail及其他服務,在事前未告知並取得使用者同意的情況下,蒐集人們的資料(包括搜尋紀錄、電子郵件、第三方網站軌跡資料、位置資訊及影片觀看紀錄等)。歐洲各國隱私監管機構對此表示憂心,認為Google恐將以前所未有的規模,掌握使用者的一舉一動,紛紛投入調查工作,並相繼認為Google確實已經違反其內國法。

  荷蘭資料保護局(Data Protection Authority, DPA)主席Jacob Kohnstamm於2014年12月15日表示,使用者有權知悉他們在某一平台輸入的資料,其他平台也可以利用它們,並要求Google在合併不同服務所取得的個人資料前,應以跳出不同視窗等方式供使用者點選,俾以取得其明示同意(unambiguous consent),僅只透過一般隱私條款,並不足以提供當事人清楚且一致的資訊(clear and consistent imformation)。

  DPA希望Google不要再考驗他們的耐心,並揚言對Google處以1500萬歐元罰鍰,除非它在2015年2月底前完成改善。但面對DPA的最後通牒,Google僅回應,他們已經大幅修正了隱私權政策,很遺憾DPA仍作出這樣的決定,但他們將儘快與歐洲各國隱私監管機構就後續修訂方案進行討論。

相關連結
※ 違反荷蘭資料保護法,Google恐遭罰1500萬歐元, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6728&no=16&tp=1 (最後瀏覽日:2026/04/10)
引註此篇文章
你可能還會想看
英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

德國聯邦政府內閣通過自駕車草案

德國聯邦政府內閣通過自駕車草案 資訊工業策進會科技法律研究所 2021年3月10日   德國聯邦交通與數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)提出之自駕車草案(Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren[1]),經聯邦政府內閣(Kabinett)於2021年2月10日批准通過。BMVI表示冀望透過該草案創建自駕車的法律框架,針對自駕車布建與落地應用之相關程序進行規定,以使指定運行範圍(festgelegter Betriebsbereich[2])為全國公共道路的等級四自駕車(Vollautomatisiertes Fahren)能夠成為人民日常生活的一環。 壹、背景目的   2017年3月,德國聯邦議會(Deutsche Bundestag)通過道路交通法(Straßenverkehrsgesetzes, StVG)修正案,修正過後之道路交通法針對具高度與完全自動駕駛功能(hoch- und vollautomatisierter Fahrfunktion)的車輛─約等同於SAE等級三與等級四之自駕車─進行規範,明確規定在操作設計範圍(Operational Design Domain, ODD)允許自駕車操作,如專為於高速公路上行駛設計之自駕車,則在該模式下不得於其他交通道路上行駛[3],該修正亦針對駕駛人[4]的概念與責任範圍進行重新定義[5]。   本次針對自動駕駛制定之草案係以包裹立法之方式,除同樣於道路交通法進行條文的增定(第1d條至第1l條)外,並修正強制汽車責任保險法(Pflichtversicherungsgesetz, PflVG)第1條,增加道路交通法規第1d條所指自駕車車主(Halter[6])的保險責任。目標為使德國成為全球首個將自駕車自研究階段帶入日常生活中之國家,並預計於2022年實現其構想。 貳、內容摘要   道路交通法規增訂之第1d條至第1l條內容概述如下: 一、第1d條:定義   本條定義道路交通法所涉及之自動駕駛相關詞彙,包含自駕車、指定運行範圍、自駕車技術監控者,以及最小風險條件。 二、第1e條:允許車輛運行自動駕駛之條件   本條規範允許車輛運行自動駕駛之條件,包含需符合規定的技術要求、已受核發行駛許可、依各邦法律主管機關批准於指定運行範圍內使用、根據道路交通法第1條第1項允許於公路上行駛等條件;本條亦針對技術設備所必備的功能進行詳細描述,如車輛得自行遵守相關交通法規、自駕系統可隨時藉由技術監控者加以停用並將車輛置於最小風險狀態,以及自駕系統在以視覺、聽覺或其他可感知方式要求技術監控者進行手動駕駛前,預留有足夠的反應時間等。 三、第1f條:使自駕車運行之相關人員(Beteiligten)義務   本條要求自駕車之車主為維護道路安全和環境相容性(Umweltverträglichkeit),需定期進行自駕系統的更新與維護、確保於手動駕駛時遵守道路交通規定,以及履行技術監控任務。在對自駕車進行技術監控時,當接收到系統以視覺、聽覺或其他可感知方式通知技術監控者,並要求切換操作模式時,技術監控者應立即改為手動駕駛模式,並採取必要之安全措施。另外本條要求自駕車之製造商有義務對自駕車進行風險評估,確保其電子電機架構(Electronic & Electrical Architecture, EEA)與聯網系統的安全性,並向德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)和其他有關主管機關提出證明。 四、第1g條:資料處理   本條課予自駕車之車主及製造商特定義務,要求車主在駕駛自駕車時,於特定情況下進行指定資料類型之保存及傳輸;在製造商部分,則要求其需以簡單、清晰且明確的方式,告知車輛之車主隱私設置選項以及駕駛過程中資料係如何被處理。另本條授權KBA於有安全上之必要時,向車輛之車主進行資料的蒐集、儲存與使用。 五、第1h條:自動駕駛功能的追溯啟用   當動力車輛設置未符合本法所適用之國際法規所描述之自動駕駛功能,僅當停用自動駕駛功能,而不影響車輛其他功能時,方可不考量自動駕駛功能未符合國際法規描述之情況,允許依相關審驗規定運行車輛。 六、第1i條:自動駕駛功能的測試   仍處於測試開發階段之自駕車僅在經KBA核發測試許可、已根據本法第1條第1項進行註冊的情況下,方得於公共道路上行駛,且該行駛必須基於測試目的,過程中亦必須持續進行技術監控。 七、第1j條:授權   經聯邦參議院(Bundesrat)批准之法令授權,BMVI可就道路交通法第1d條至第1i條之公共道路上具自駕功能車輛的許可和操作進行細節性規定。 八、第1k條:德國聯邦國防軍隊、聯邦警察、各邦警察、民防與災難控制、消防隊和緊急服務的車輛   為執行官方任務而有配置自駕車的需要時,若能確保使用自駕車時充分考慮公共安全,則允許相關技術規範、操作設計範圍規範,與其他行駛相關規範之適用排除。 九、第1l條:評估   基於自駕車研發過程可能產生的影響與其和資料保護法規的相容性,BMVI將於2023年底前,以根據本法第1i條第2項所取得之測試資料進行評估,並將評估結果交予聯邦議會。 參、簡析   由BMVI所提出之針對自駕車的草案目前正於聯邦議會及參議院的程序進行中,預計可於2021年中通過。與2017年之道路交通法修正案進行比較,2017年之修正主要目的係使自駕車能夠受道路交通法規之規範,故將自駕車以正面表列之方式,增列入道路交通法規對車輛之定義中,並對駕駛人之義務進行規範,而較少針對自駕車特性制定專門之規定;與之相比,綜觀本次修正草案之內容,可總結出草案係針對未來可於公路上行駛之自駕車結構、品質與設備制定一致性的技術標準要求,規範操作相關人員應行使之義務如自駕系統更新、資料保存、安全性證明與風險評估等,並就操作執照的審查與自駕車測試相關程序進行制定,透過針對自駕車之發展與落實所需進行法條內容之設計,力圖藉此於促進自駕車發展與落實的同時,進一步推動德國道路交通法規之調節與一致性規範之創設。   我國政府長期以來致力於自駕車科技的研發與實驗,2019年6月施行之無人載具科技創新實驗條例以沙盒之概念,於自駕車實驗的範圍內進行特定法規與條件的排除,使技術的研發與測試能不受現有之規範或特定條件限制,最終期望能將自駕車實際投入現有交通體系中使用。為使我國法制環境能與技術發展相互配合,建議可參考德國自動駕駛法草案之內容,在確保公共安全的基礎上,於我國制定自駕車之公路行駛規範,以協助自駕車技術於交通體系之落實。    [1]Bundesministerium für Verkehr und digitale Infrastruktur ,Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren (2021), https://www.bmvi.de/SharedDocs/DE/Anlage/Gesetze/Gesetze-19/gesetz-aenderung-strassenverkehrsgesetz-pflichtversicherungsgesetz-autonomes-fahren.pdf?__blob=publicationFile (last visited Mar. 10, 2021). [2]指定運行範圍(festgelegter Betriebsbereich)於草案第1d條中之定義為「當地與空間上確定之公共道路」,應非普遍所指操作設計範圍(Operational Design Domain, ODD),特於此說明以避免混淆。 [3]Deutsche Bundestag, Straßen­verkehrsgesetz für automatisiertes Fahren geändert (Mar. 30, 2017), https://www.bundestag.de/dokumente/textarchiv/2017/kw13-de-automatisiertes-fahren-499928 (last visited Mar. 10, 2021). [4]2017年道路交通法之修正係針對駕駛人(Fahrzeugführer)之概念與責任範圍進行重新定義,而非針對車主(Fahrzeughalter/Halter),特於此敘明。 [5]§§1a,1b,63a StVG. [6]車主(Fahrzeughalter/Halter)與所有人(Eigentümer)之概念於德國道路交通法上非完全相等,普遍情況兩者為同一人,但在少數情況則否,以車輛租賃為例,在此車輛之出租人為所有人,而車輛之承租人為車主,特於此敘明。

日本推動3種技術資訊管理制度以強化企業技術保護力

  作為企業競爭力泉源的技術資訊其價值日趨高漲,日本經濟產業省(以下簡稱經產省)以企業界為對象,於2020年7月到2021年9月召開超過20場線上「技術外洩防止管理說明會」,以技術資訊管理為核心,推動3種技術資訊管理制度: 一、技術資訊管理認證制度   基於2018年「產業競爭力強化法」修法,推動「技術資訊管理認證制度」,促進企業通過認證,強化企業取得合作夥伴信賴之能力。 二、營業秘密管理制度   基於日本「不正競爭防止法」,推動「營業秘密管理制度」,防止企業外洩自己的機密資訊,強化企業自我保護之能力。 三、安全保障貿易管理制度   基於企業對於「外國交易行為與外國貿易法」或相關法令知識不足,推動「安全保障貿易管理制度」,避免企業輸出高階技術、高性能產品被作為軍事利用而違法,進而面臨被處刑罰、行政罰之風險,強化企業承擔責任之能力。   全球新興科技發展以及嚴峻疫情驅使之下,我國許多企業投入數位轉型、採取遠距辦公,與客戶間傳遞或保管重要技術資訊時,將增加一定程度的資訊外洩風險,日本3種技術資訊管理制度可供我國企業建構技術資訊管理機制、強化企業技術保護力之參考。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

TOP