歐盟法院裁決:網站「預先選取同意」不構成ePrivacy Directive及GDPR合法有效的同意

  歐洲聯盟法院(CJEU)2019年10月1日對Planet49案(Case C-673/17)作出裁決。Planet49 GmbH為線上遊戲公司,用戶必須註冊並填寫姓名、地址等資料,點擊「參加」鍵後,會出現兩個選項框,一為「同意接收贊助商及合作夥伴的廣告訊息」,用戶必須勾選此一選項始可參加;另一選項框是「同意將用戶的Cookies用於廣告目的與分析」,此一選項已被預先勾選,而用戶可以取消勾選;在選項旁附有說明(如Cookie的用途等),並告知用戶可以隨時刪除所設置的Cookie。

  歐盟法院針對《電子通訊隱私指令》(ePrivacy Directive, ePD)以及《一般資料保護規則》(General Data Protection Regulation, GDPR)進行闡明,重點如下:

一、ePD所要求對於Cookie儲存與使用的「同意」必須符合GDPR的「同意」原則,必須是當事人自願、具體、知情且明確的同意,本案「預先勾選同意」不構成有效同意。

二、「同意」必須特定對象,而不能藉由其他標的加以包裝、暗示,用戶點擊「參加遊戲」不能代表「Cookie的同意」。

三、ePD是對於用戶資料儲存與取得的保護,不論是否涉及「個人資料」均有ePD的適用,而必須取得用戶同意。

四、對於Cookie的使用必須清楚揭露,包括Cookie用途、運作期間、第三方是否有機會取得此一資訊等,以確保用戶確實了解其所為「同意」的內容與範圍。

相關連結
你可能會想參加
※ 歐盟法院裁決:網站「預先選取同意」不構成ePrivacy Directive及GDPR合法有效的同意, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8378&no=55&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
日本雅虎公布個資刪除標準

  自從歐洲法院判決谷歌(Google)應該尊重當事人的「被遺忘權」,從搜尋結果移除敏感、不當或過時的資訊聯結後,日本雅虎(Yahoo!)於2014年11月組成了專家小組,針對民眾請求刪除網路搜尋結果時,搜尋引擎應該在何種程度上及如何給予回應等議題進行討論,並於2015年3月30日公布了個資刪除標準,隔日起生效。   日本雅虎表示,當搜尋某人的姓名,出現其病歷、過去曾經犯下的輕罪等敏感性資訊或明顯侵害個人權益的資訊(如非公眾人物的地址、電話號碼等)時,當事人可以請求刪除搜尋結果,但在決定是否准許當事人請求前,雅虎將先行檢查當事人係屬成年人、弱勢族群或公眾人物(包括國會議員、公司高階主管及影視圈名人等)。至於那些被強烈懷疑為非法的性愛照片,如兒童色情或報復性色情(未經本人同意而散播的親密照片)等,將主動予以封鎖而無法瀏覽。   由於線上文字及圖片相當容易複製,不願意公開的資訊被公開在網路上而無法移除時,往往造成當事人心理上極大的痛苦,於搜尋階段便設法封鎖有問題的資訊,能夠有效地防止因資訊傳播而帶來的傷害。但從言論自由及知的權利的角度出發,某些資訊的揭露本身即具有公益色彩,應該適度限制當事人移除資訊的請求。日本雅虎率先公布個資刪除標準,預料將帶動亞洲入口網站對於隱私保護的重視。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

中國大陸食品安全法修訂草案二審稿,將基因改造食品標識明確列入

  2014年12月22日,中國大陸食品安全法修訂草案二審稿增加關於食品貯存和運輸、食用農產品市場流通、基因改造食品標識(中國大陸用語為轉基因食品標籤)等方面之內容。二審稿規定,生產經營基改食品皆應按照規定進行標識,未按規定進行標識的,沒收違法所得和生產工具、設備等物品,最高可處貨值金額五倍以上十倍以下罰款,情節嚴重者責令停產停業,直至吊銷許可證。對於基因改造標識,中國大陸已於《農業轉基因生物安全管理條例》有規定,此次二審稿為保障消費者的知情權,增加加重食品安全違法行為的法律責任,採取多種手段嚴懲,並希望以法律形式將其確定。   我國食品安全衛生管理法於2014年12月10日修法中,對於基改食品標識部分並未修訂,僅在第22條及24條規定了要標識「食品之容器或外包裝,應以中文及通用符號,明顯標示下列事項…(包含基因改造食品原料)」以及「食品添加物之容器或外包裝,應以中文及通用符號,明顯標示下列事項中…(含基因改造食品添加物之原料)」。然而,我國與中國大陸此次修法雖皆有明訂,但明訂方式、標準等並未描述,又如美國佛蒙特州有意立法通過之基改食品標識法也在今年2015年1月因有爭議舉行公聽會,使該法令生效前恐有中止之情事。目前看來,不同國家有不同的基因改造食品標識政策,但國際間仍致力建立一套統一的規範。

歐盟隱私工作小組支持擴大通知義務之業者範圍

  歐盟隱私權工作小組(working party)日前公布其對「隱私與電子通訊指令」(Directive on Privacy and Electronic Communications, 2002/58/EC)之修正意見,藉此重申支持個人資料外洩通知責任立法之立場,並建議擴大適用通知責任之業者範圍至涉及線上交易之電子商務之服務提供者。此項建議隨即遭到歐盟理事會及委員會之反對,認為通知責任應僅限於電信公司,而不應擴及其他電子商務服務提供者。   歐盟隱私權工作小組於2009年2月初提出的報告指出,個人資料外洩通知責任法制(Data Breach Notification Law)之建立對於資訊社會服務(Information Society Service)之發展是必要的,其有助於個人資料保護監督機構(Data Protection Authorities)執行其職務,以確認受規範之服務提供者是否採取適當的安全措施。再者,亦可間接提高民眾對於資訊社會相關服務使用之信心,保護其免於身份竊盜(identity theft)、經濟損失以及身心上之損害。   然而,歐盟理事會及歐洲議會則反對該項修正建議,其一方面認為不應擴張資料外洩通知責任制度適用之業者,另一方面則認為對於是否透過法制規範課予業者通知之義務,應由各國立法者決定是否立法,甚或由業者依資料外洩情形嚴重與否,來判斷是否通知其各國個人資料保護相關組織及客戶。此外,參考外國實施之成效,美國雖有多數州別採用資料外洩通知責任制度,但並非所有的隱私權團體皆肯認該項制度;英國資訊委員會對於該制度之成效則仍存質疑,因從過去為數眾多的個人資料外洩事件看來,其效果已逐漸無法彰顯。   雖然歐盟個人資料保護官(European Data Protection Supervisor)與歐盟隱私權工作小組之看法一致,但其與歐洲議會與歐盟理事會仍存有歧見,對於個人資料外洩通知責任制度之建立,似乎仍有待各方相互協商尋求共識,方能決定是否納入歐盟隱私及電子通訊指令之規範。

TOP