荷蘭資料保護局:Google隱私權政策違反該國資料保護法

  荷蘭資料保護局(Data Protection Authority, DPA)歷經長達七個月的調查,於2013年11月28日發布新聞稿,聲明Google違反該國資料保護法,因其未適當告知用戶他們蒐集了什麼資料、對資料做了些什麼事。

  DPA主席Jacob Kohnstamm表示:「Google在未經你我同意的情形下,對我們的個人資料編織了一張無形的網,而這是違法的。」調查報告援引了Google執行長Eric Schmidt在2010年一場訪談中所說的話:「你不用鍵入任何字,我們知道你正在什麼地方、去過什麼地方,甚至或多或少知道你在想些什麼。」。

  調查顯示Google為了展示個人化的廣告及提供個人化的服務,而將不同服務取得的個人資料加以合併,如搜尋記錄、所在位置及觀看過的影片等。然而,從用戶的觀點來看,這些服務係基於全然不同的目的,而Google亦未事先提供用戶同意或拒絕的選項。依照荷蘭資料保護法的規定,Google合併個人資料前,應經當事人明示同意,而該同意無法藉由概括(隱私)服務條款取得。針對DPA的聲明,Google回應他們已經提供用戶詳細資訊,完全符合荷蘭法律。

  DPA表示將通知Google出席聽證會,就調查結果進行討論,並決定是否對Google採取強制措施。但是,從Google的回應看來,他們不太可能在聽證過後改變心意。以先前Google街景車透過Wi-fi無線網路蒐集資料的案例為鑑,Google(市值達3500億美元)若繼續拒絕遵循,將有可能面臨高達1佰萬歐元的罰鍰。

相關連結
※ 荷蘭資料保護局:Google隱私權政策違反該國資料保護法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6440&no=0&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
瑞士公投通過基改生物培育禁令

  瑞士國會在2003年通過法律,允許有條件種植基改作物,但是反對者要求禁種的聲浪仍高,為此,瑞士甚至特別舉行了公民投票。公投結果在11月底出爐,正式確定未來五年瑞士境內將禁止種植基因改造植物或培育基因改造動物。根據官方資料顯示,有55.7%的投票者支持這項公投案,支持者多為農民、環保人士、生態學家和消費者協會。   反基因改造生物(GMO)者表示,基改農作物對消費者與農民並無益處,禁令將可使得瑞士有更多時間來評估GMO對於生態環境安全的衝擊,並且可使農民有更多的機會銷售傳統農產品和有機農產品。   雖然此一決定僅禁止GMO之種植或養殖,並沒有禁止基因改造科技的研究以及基改產品的進口,但瑞士生技業及科學研究人員仍極憂心地表示,實驗室的基改研究成果若無法量產上市,仍將會嚴重打擊其國內基因科技研究,造成人才及產業外移。

美國ULC公布統一虛擬貨幣事業監管規範建議,提供各州虛擬貨幣管制立法架構參考

  2017年美國統一法律委員會(Uniform Law Commission, ULC)於2017年9月公布「統一虛擬貨幣事業監管法」(Uniform Regulation of Virtual Currency Business Act, 以下簡稱VCBA)全文、總說明以及利害關係人意見,對於虛擬貨幣(virtual currency)提供管制架構,囊括虛擬貨幣定義和適用範圍、營業執照要求、跨州互惠原則、消費者保護、網路安全、反洗錢和對進行虛擬貨幣商業活動者之監管等重要問題,作為各州相關立法參考。迄今美國夏威夷州和內布拉斯加州分別向州議會提案,朝向採用VCBA作為該州虛擬貨幣管制參考規範之方向討論。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

防疫也須防弊!美國加州檢察總長針對醫療照護機構遭受勒索軟體攻擊提出適當措施與事故通報指引

  由於近日頻傳醫院遭受勒索軟體攻擊(ransomware attacks),美國加州檢察總長於2021年8月24日發布官方公告(bulletin):在加州州法「醫療資訊保密法」(Confidentiality of Medical Information Act, CMIA)與聯邦法「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act of 1996, HIPAA)規範下,蒐集、處理和利用醫療健康資料的醫療照護機構,有採取適當措施與事故通報的義務,以維護醫療健康資料保密性。   針對「採取適當措施」的內容,美國加州檢察總長於本次官方公告中,提出明確指引(guidance):醫療照護機構須至少採取下列5項防範措施(preventive measures),以避免勒索軟體威脅: 確保所有存取醫療健康資料的作業系統與軟體,均升級至最新版本; 安裝防毒軟體,並維護其運作; 定期為員工舉辦教育訓練,包含教導員工不要點擊可疑網址和防範釣魚電子郵件(phishing email); 限制員工下載、安裝和運作未經批准的軟體; 維護和定期測試資料備份與救援計畫,以便於事故發生時,控制對資料和系統的影響範圍及程度。   此外,針對「資料外洩事故通報義務」(breach notification obligations),美國加州檢察總長指出:依據「加州民法」(California Civil Code)第1798.82條,擁有或經授權使用含有個人資料的「電腦化資料」(computerized data)的醫療照護機構,於發生,或可合理確信發生,影響超過500位加州居民的資料外洩事故時,即負有將該事故通報檢察總長辦公室的義務。

TOP