Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑

  2012年3月Google將世界各地總共60個相異的個人資料隱私權政策統一後,即受到歐盟個人資料保護機構「第29條工作小組」的關注,該小組認為Google修訂後的個人資料隱私權政策違反歐洲資料保護指令(European Data Protection Directive (95/46/CE)),將難以讓使用者清楚知悉其個人資料可能被利用、整合或保留的部分。同時,Google亦可能利用當事人不知情的情況下,大量利用使用者個人資料。因此,2012年10月歐盟要求Google在4個月內對該公司的個人資料隱私權政策未符歐盟規定者提出說明,惟至今Google仍無回應。因此,歐洲6個國家,包括法國、德國、英國、義大利、荷蘭及西班牙的個資監管機構,將聯合審視Google的個人資料隱私權政策是否違反各國的法律,並依據各國法律展開後續措施,如鉅額罰款等。法國之資訊自由國家委員會(Commission nationale de l'informatique et des libertés,簡稱CNIL)率先表示,若Google於4月11日前未改善其資料隱私權政策,法國將首先採取法律行動。然Google對此僅簡單回應,表示其資料隱私政策尊重歐盟的法律,且可以讓Google提供更簡單、更有效率的服務。

相關連結
※ Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6039&no=57&tp=1 (最後瀏覽日:2026/04/05)
引註此篇文章
你可能還會想看
法商Parrot商標侵權及商業秘密洩漏案對外商於中國大陸規範人員管理的啟發

美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

Google挑戰法國最高行政法院對被遺忘權之看法

  2016年3月法國個人資料保護主管機關「國家資訊自由委員會」(Commission Nationale de l'Informatique et des Libertés, CNIL)要求Google等搜尋引擎公司,刪除網路搜尋所出現之歐洲公民姓名。此舉參考2014年歐洲法院(European Court of Justice)對於Mario Costeja González一案(C 131/12)所作裁決,Google公司和Google西班牙公司須遵守西班牙資料保護局(Agencia Española de Protección de Datos, AEPD)要求,移除出現原告姓名之搜尋結果。Google表示不服,並上訴法國最高行政法院(Conseil d'État)。   於本案中Google提出兩點主張:第一,CNIL對於被遺忘權(right to be forgotten)適用範圍過大,聲稱所搜尋到之姓名等資訊,屬於事實或來自新聞報導和政府網站之合法公開網站資訊,認為CNIL將隔絕原本在法國可為其他人所知之合法資訊;第二,Google主張向來遵守各國個人資料保護政策,將遵照CNIL要求,但僅限刪除在法國網域內之歐洲公民姓名,無法及於全球網域,除非法國政策已為全歐盟或全球所適用,不然法國個人資料保護審查制度不能延伸至其他國家。   對於網路公民權利推廣不遺餘力之「電子前線基金會」(Electronic Frontier Foundation, EFF)認為CNIL對法國公民資料保護之特別要求,將對Google造成損害。

日本發布資料素養指南之資料引領判斷篇,旨在呼籲企業透過資料分析結果改善並優化企業經營

日本獨立行政法人情報處理推進機構於2025年7月發布《資料素養指南(下稱《指南》)》,指南分為三大章,第一章為整體資料環境之變化;第二章為資料治理;第三章為資料、數位技術活用案例與工具利用。指南第二章中的資料引領判斷篇,主要為呼籲企業透過資料分析結果改善企業經營。 《指南》資料引領判斷篇指出,在進行資料驅動的判斷流程時,需留意三點事項,分述如下: (一) 提出假說、驗證並進行決策 首先盤點利害關係人,蒐集各自的需求與課題,考量可以適用的技術與服務,並以此為基礎提出與事業相關的假說。其次,盤點必要資料並確認其利用可能性,同時針對所缺乏的資料進行取得可能性之評估。下一步,以所取得的資料為基礎進行假說與資料分析結果之驗證。而後,將假說與資料分析結果的驗證成果提供給利害關係人,並以利害關係人的意見為基礎,進行追加資料的取得並同時修正假說內容。最後,基於資料分析結果進行決策。 (二) 判斷決策所必要之資料的信賴性 企業在盤點必要之資料以進行分析並據此進行決策時,由於資料沒有達到特定數量無法用於分析、資料蒐集需花費時間成本,且判斷時點有時亦有其時效性,因此,在確保必要之資料時,會先檢視企業內部所持有之資料,而後確認政府機關的公開資料,如仍缺乏必要之資料,則會確認從資料市場取得之可能性等。在確保必要之資料後,則會判斷決策所必要之資料的信賴性,其主要分為兩點,一為針對資料本身之信賴性,包含資料是否有偏頗、對於資料產出者的信賴性以及資料取得日期、地區等;一為資料傳輸、編輯的信賴性,包含對於資料仲介者的信賴性、資料編輯程式以及資料整合方針。在無法完全確保資料的信賴性時,則會透過相關聯的資料進行資料正確性的檢驗。 (三) 服務導入與監視 資料分析並不僅侷限於現在資料的分析,亦會涵蓋未來資料的預測。舉例而言,自動駕駛資料不僅會分析車輛狀況以及周圍狀況,亦會預測並自動判斷是否需要剎車。透過資料分析結果導入服務後,亦應透過監視檢視決策成效,方法包含滿意度調查、平均使用時間調查等,並針對調查結果進行改善。 我國企業如欲將其所持有之資料用於分析並依照分析結果進行企業經營決策,除可參考日本所發布之《指南》資料引領判斷篇建立內含PDCA四面向之管理制度以外,亦可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,針對自身所持有之資料建立包含PDCA四面向之管理制度。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP