Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑

  2012年3月Google將世界各地總共60個相異的個人資料隱私權政策統一後,即受到歐盟個人資料保護機構「第29條工作小組」的關注,該小組認為Google修訂後的個人資料隱私權政策違反歐洲資料保護指令(European Data Protection Directive (95/46/CE)),將難以讓使用者清楚知悉其個人資料可能被利用、整合或保留的部分。同時,Google亦可能利用當事人不知情的情況下,大量利用使用者個人資料。因此,2012年10月歐盟要求Google在4個月內對該公司的個人資料隱私權政策未符歐盟規定者提出說明,惟至今Google仍無回應。因此,歐洲6個國家,包括法國、德國、英國、義大利、荷蘭及西班牙的個資監管機構,將聯合審視Google的個人資料隱私權政策是否違反各國的法律,並依據各國法律展開後續措施,如鉅額罰款等。法國之資訊自由國家委員會(Commission nationale de l'informatique et des libertés,簡稱CNIL)率先表示,若Google於4月11日前未改善其資料隱私權政策,法國將首先採取法律行動。然Google對此僅簡單回應,表示其資料隱私政策尊重歐盟的法律,且可以讓Google提供更簡單、更有效率的服務。

相關連結
※ Google個資隱私權政策違反歐洲資料保護指令,六國將聯合採取法律途徑, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6039&no=57&tp=1 (最後瀏覽日:2026/02/14)
引註此篇文章
你可能還會想看
日本「未來投資戰略2017」

  日本內閣官房下設之未來投資會議於2017年6月9日,以構築「Society5.0」為目標,提出《未來投資戰略2017》,宣佈未來施政將以「延長健康壽命」、「實現移動革命」、「供應鍊的次世代化」、「街道活性化」以及「Fintech」等5大領域為中心。   在實現移動革命部份,《未來投資戰略2017》計畫藉由無人自動駕駛移動服務、小型無人機和自動駕駛船隻等,提高物流效率與實現高度化移動服務,以減少交通事故和解決人力不足等問題。   與此同時,日本亦將自2018年起展開卡車列隊行駛公路實驗,以期在2022年前達成卡車列隊行駛商業化之目標;此外,亦將於2018年起在山間地帶展開以小型無人機運輸貨物之實驗。除上述自動駕駛技術之實驗外,日本亦將朝向擴大駕駛資料收集和利用,主導制定資料傳輸規格等方向努力,並計畫於2017年底擬定高度自動駕駛系統商業化相關法規及制度之整備大綱。

荷蘭科學研究組織(Netherlands Organisation for Scientific Research, NWO)與公私夥伴關係

  自2012年開始,荷蘭科學研究組織(Netherlands Organisation for Scientific Research, NWO)會擇定幾個重點領域,該重點領域係包含:農業食品,園藝及繁殖材料,水 ( Agri & Food, Horticulture & Propagation Materials, Water)、生物經濟,化學,跨部門的信息和通信技術方案(Biobased Economy, Chemistry, Cross-sector theme ICT)、創意產業(Creative Industry)、能源產業(Energy)、生命科學與健康(Life Sciences and Health)…等等領域,並由其中擇定有發展前景的計畫(top program),以公私夥伴關係推動發展,其每年投注於該重點領域研究金額大約245,000,000歐元,而投注於公私夥伴關係計畫中的金額更高達100,000,000歐元。公部門與產業間以及研究者間權利義務關係依合作強度以及產業投入的資金而有所不同。荷蘭此類公私夥伴關係依發動者不同而分三種不同類型: 1.科學家發動的公私夥伴關係(Science Takes Initiative) 2.共同發動的公私夥伴關係(Joint Initiative) 3.由產界發動之公私夥伴關係(Business Takes Initiative)   NWO在評估是否給予補助時,可以採取面談或現場參觀評估之方式,而NWO亦得附帶條件要求補助所購買的特殊儀器設備提供他人使用。而NWO補助所生的研究成果應盡可能公開並有利於未來的研究使用,例外情形則可延後公開。   又研究成果原則上係歸屬受補助者,但NWO在於特定研究補助之目的有此必要,得於事前與受補助者簽訂書面協定取得研究成果之權利。又若該研究計畫是在國外執行且完全由該國之學術機構負責,在該國的專利法並不損及荷蘭方之當事人依荷蘭專利法可享的權利下,則該國之學術機構就研究成果之開發及利用得依該國專利法之規定。國際合作的公私夥伴間彼此的權利義務會因個案約定而有不同。

歐盟金融監管機構共同建議強化現行之永續金融揭露規則

為促進綠色轉型並提高對投資人之保護,歐洲銀行監理機關(European Banking Authority, EBA)、歐洲保險與職業年金監理機關(European Insurance and Occupational Pensions Authority, EIOPA)及歐洲證券與市場監理機關(European Securities and Market Authority, ESMA)於2024年6月18日針對永續金融揭露規則(Sustainable Finance Disclosure Regulation),向歐盟執委會(European Commission)發布共同意見。 現行的永續金融揭露規則於2019年制定並於2021年生效,其目的在提高金融產品服務的 ESG 揭露透明度和標準化,透過要求金融市場參與者提供可靠且可比較的 ESG 資料,使投資者能夠做出更明智的投資決策,引導投資人重視環境與永續議題。現行的永續金融揭露規則係以「商品標籤」之方式揭露金融商品資訊,但共同意見中認為此標籤制度並未提供明確標準或門檻,使投資人無法充分了解為何特定商品具有永續性,導致漂綠(greenwashing)及相關投資風險。 因此,本次共同意見向執委會建議,執委會應建立投資人易於理解且具有客觀標準之金融商品類別,解決上述資訊落差疑慮。共同意見建議,金融機構可採用「永續(sustainable)」與「轉型(transition)」兩項金融商品類別。以下簡介共同意見就兩項金融商品類別提供之建議: 一、永續類別 永續類別係指金融商品投資於已達到環境或社會永續門檻之經濟活動或資產。共同意見提及,執委會或可考慮將永續類別再拆分為環境永續類別與社會永續類別;但若拆分兩項類別,可能必須注意目前環境永續與社會永續兩項類別得參考之指標發展程度不一,未來在訂定門檻時如何確認相關指標需進一步討論。 二、轉型類別 轉型類別係指金融商品投資於尚未達到環境或社會永續門檻,但未來將逐步提高其永續性以達到永續類別門檻之經濟活動或資產。共同意見建議,執委會於訂定轉型類別之門檻時,應參考經濟活動分類標準之關鍵績效指標、轉型計畫、商品減碳路徑及減緩主要不利影響之措施等因素。 目前執委會正評估利害關係人意見及永續金融揭露規則實施經驗,作為改善歐盟永續金融制度之依據,因此共同意見亦建議,執委會應先進行消費者調查,再著手後續規則修訂,方能達到制度優化之成果,保障投資人權益及永續發展。

德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

TOP