Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑

  2012年3月Google將世界各地總共60個相異的個人資料隱私權政策統一後,即受到歐盟個人資料保護機構「第29條工作小組」的關注,該小組認為Google修訂後的個人資料隱私權政策違反歐洲資料保護指令(European Data Protection Directive (95/46/CE)),將難以讓使用者清楚知悉其個人資料可能被利用、整合或保留的部分。同時,Google亦可能利用當事人不知情的情況下,大量利用使用者個人資料。因此,2012年10月歐盟要求Google在4個月內對該公司的個人資料隱私權政策未符歐盟規定者提出說明,惟至今Google仍無回應。因此,歐洲6個國家,包括法國、德國、英國、義大利、荷蘭及西班牙的個資監管機構,將聯合審視Google的個人資料隱私權政策是否違反各國的法律,並依據各國法律展開後續措施,如鉅額罰款等。法國之資訊自由國家委員會(Commission nationale de l'informatique et des libertés,簡稱CNIL)率先表示,若Google於4月11日前未改善其資料隱私權政策,法國將首先採取法律行動。然Google對此僅簡單回應,表示其資料隱私政策尊重歐盟的法律,且可以讓Google提供更簡單、更有效率的服務。

相關連結
※ Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6039&no=67&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
美國食品藥物管理局發布《上市後研究及臨床試驗:判定未遵守聯邦食品、藥品和化妝品法案第505(o)(3)(E)(ii)節的正當理由》指引草案

美國食品藥物管理局(U.S. Food and Drug Administration, US FDA)於2023年7月14日發布《上市後研究及臨床試驗:判定未遵守聯邦食品、藥品和化妝品法案第505(o)(3)(E)(ii)節的正當理由》(Postmarketing Studies and Clinical Trials: Determining Good Cause for Noncompliance with Section 505(o)(3)(E)(ii) of the Federal Food, Drug, and Cosmetic Act)指引草案,說明FDA如何判定處方藥廠商未遵守上市後要求(Postmarketing Requirements, PMRs)的正當理由。 根據聯邦食品、藥品和化妝品法案(Federal Food, Drug, and Cosmetic Act, FD&C Act)第505(o)(3)節,應完成PMR的廠商必須向FDA更新研究或臨床試驗進度的狀態及時間表,例如:提交最終版本計畫書、完成研究/臨床試驗、提交結案報告。廠商若未向FDA更新上述PMR資訊即違反FD&C Act,除非廠商提出正當理由。 未遵守PMR的正當理由應符合下列三項條件: 一、與錯失時程直接相關的情況。 二、超出廠商的控制範圍。 三、當初制定時間表時無法合理預期的情況。 該指引草案舉例說明可能的正當理由及非正當理由,另建議廠商提交年度報告前主動通報PMR進度的狀態,並在預期錯過時程之前儘快提供理由,亦須採取矯正PMR不合規行為的措施,包括立即制定矯正計畫、主動向FDA通報實際或預期的延誤,以及修訂合理的時間表。未遵守PMR的廠商可能會收到FDA的警告信(Warning Letter)或無標題信(Untitled Letter)、不當標示指控(Misbranding Charges)和民事罰款,FDA將根據廠商是否採取矯正措施來確定罰金。 「本文同步刊載於 stli生醫未來式 網站(https://www.biotechlaw.org.tw)」

日本發布資料素養指南之資料處理篇,旨在促使企業理解便於活用於數位技術與服務的資料管理方法

日本獨立行政法人情報處理推進機構於2025年7月發布《資料素養指南(下稱《指南》)》,指南分為三大章,第一章為整體資料環境之變化;第二章為資料治理;第三章為資料、數位技術活用案例與工具利用。指南第二章中的資料處理篇,主要為促使企業理解有利活用於數位技術與服務的資料管理方法。 《指南》資料處理篇指出,資料的生命週期涵蓋資料設計、資料蒐集、外部資料連動、資料整合、資料處理、資料提供、資料累積以及資料銷毀等不同階段。《指南》建議在資料生命週期的各階段,盡可能的不要有人類的介入。舉例而言,資料蒐集可以透過感測器或系統進行。該建議的目的在於,人類介入資料生命週期,僅會引起輸入錯誤或是操作錯誤等風險。 此外,《指南》亦於資料處理篇中針對資料治理給出四點建議,分別如下: (一)資料是企業的重要資產,因此應重視其管理方式。管理方式涵蓋帳號密碼、透過生物辨識技術進行資料接觸管理、Log檔之取得、系統設定禁止使用USB等方式。 (二)資料治理的重點在於對人政策。除了向員工強調不要開啟不明網站及釣魚信件以外,企業亦應與員工建立堅實的信賴關係。 (三)資料公開或流通時應注意,如果不希望提供後的資料被二次利用,應於雙方間的資料利用契約中敘明。此外,由於資料具備易於複製及傳輸的特性,因此在公開或流通資料時,應考量適用諸如時戳技術等可確保資料原本性或使資料無法被竄改的數位技術。 (四)資料銷毀如果僅是單純的刪除資料,有透過數位技術找回資料的可能性。因此,除可評估委由專門進行資料銷毀服務的公司協助以外,由於銷毀資料經由個人電腦外洩之事件時有所聞,故亦應留意個人電腦之資料管理。 我國企業如欲將資料活用於數位技術或服務,除可參考日本所發布之《指南》資料處理篇以外,亦可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,以建立自身資料處理流程,進而強化資料管理能力。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

加拿大法院命令ISP業者提供非法下載者資訊給著作權人

  加拿大聯邦法院在Voltage Pictures LLC v. Does一案中核發命令要求第三人ISP業者TekSavvy提供在該案中被控非法下載電影的2千多位使用者姓名與地址資訊給著作權人Voltage電影公司,此例在著作權、科技與隱私的微妙關係中投出一記變化球。在本案例中,法院需要對2件事進行判斷,一是是否核發該命令,二是若核發命令,法院如何降低對隱私權的侵害並確保權利人以正當的目的使用相關資訊。   在判斷是否核發命令時,法院考量到下列因素,包括:法院命令是唯一合理取得資訊的方式,TekSavvy擁有係爭資訊,且命令不會對其造成不當的花費與影響。同時,認定Voltage有真實的意圖向非法下載者提出侵權訴訟,且對於資訊的揭露並無不當的目的。此外,在本案所提供的證據上,也認定Voltage確為善意的主張(bona fide claim),因此其著作權比受影響的使用者隱私權利益來得重要等因素。   不過,法院仍然必須進一步決定Voltage在本案中,是否將以善意的方式(bona fide manner)使用其所取得之隱私資訊,法院考量英、美著作權蟑螂(copyright trolls)濫發警告信勒索使用者的案例,認為在命令中對Voltage聯繫接觸使用者的方式作了限制與要求是平衡著作權與隱私權,及同時抑制著作權蟑螂的最好作法,包括:法院有權檢視並要求修改Voltage寄給使用者的信件、信件中必須表明尚未有侵權的裁決、收件者未必有責、並提示收件者可尋求法律意見,同時要求該信件以法院命令做為附件,確保命令不會被濫用。   Voltage一例對於著作權人、ISP業者與使用人而言相當關鍵,著作權人只要有適當的證據就可以取得法院命令要求ISP業者提供侵權使用者資訊,不過法院也表明會透過命令內容的限制,平衡著作權與隱私權,抑制蟑螂類型的商業模式在加拿大蔓延。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP