法國CNIL重罰微軟因搜尋引擎Bing違法運用cookie

  法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)基於cookie聲明(cookie banner)違反法國資料保護法(Act N°78-17 of 6 January 1978 on Information Technology, Data Files and Individual Liberties)裁罰微軟愛爾蘭分公司(Microsoft Ireland Operations LTD,下稱微軟)搜尋引擎Bing,並根據cookie蒐集資料間接產生的廣告收入、資料主題數量及處理的資料範圍定出6千萬歐元之罰鍰額度,且要求微軟應於3個月內限期改正,如逾期按日處以6萬歐元罰鍰。本案是繼2022年1月6日以來,CNIL以相同理由分別對Google與Facebook裁罰1.5億及6千萬歐元罰鍰後,再增1件科技巨頭因違法運用cookie遭受裁罰之案例。本案對我國隱私執法機關參酌於數位環境中,應就cookie聲明如何進行管理之理由與細節,具有參考價值。

  而本案微軟之搜尋引擎Bing遭受裁罰之理由,主要可分為二面向:

  一、未經使用者事前同意,逕於使用者設備中設置cookie

  依法國資料保護法第82條規定,業者利用cookie或其他追蹤方式針對使用者終端設備上的資料進行讀取或寫入資料前,應盡告知義務並取得使用者同意。惟搜尋引擎Bing在使用者造訪網站時,未經使用者同意便設置一種具有安全及廣告等多種用途的cookie(MUID cookie)於其電腦設備,且當使用者繼續瀏覽網站時,將會另設置其他廣告cookie,然微軟亦未就此取得使用者同意。

  二、拒絕設置cookie與給予同意之方式便利性應相同

  在有效同意的標準與具體判斷上,由於搜尋引擎Bing的cookie聲明第一階層僅提供「接受」與「設定」兩類按鈕,並未提供「拒絕」按鈕,因此使用者同意或拒絕設置cookie之流程便利性有其差異,並未一致,如下說明:

  (一)使用者同意設置cookie

  如使用者同意設置cookie,僅需於cookie聲明的第一階層點擊「接受」按鈕,即完成設置。

  (二)使用者拒絕設置cookie

  若使用者欲拒絕設置cookie,需於cookie聲明的第一階層點擊「設定」按鈕;其後進入第二階層,使用者可於各類型cookie選擇開啟或關閉,再點擊「保存設定」按鈕,始完成設置。

  是以使用者拒絕同意設置cookie與給予同意之方式,兩者的便利性並未一致。又因第二階層顯示默認未設置cookie,恐導致使用者誤以為網站並未設置cookie,故CNIL認為此種同意欠缺自願性而屬無效者。

相關連結
你可能會想參加
※ 法國CNIL重罰微軟因搜尋引擎Bing違法運用cookie, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8941&no=67&tp=1 (最後瀏覽日:2025/11/28)
引註此篇文章
科法觀點
你可能還會想看
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

美國制訂「促進政府資訊開放」行政命令及推動「藍色按鈕倡議」計畫

  美國歐巴馬總統於2013年5月9日正式簽署「促進政府資訊開放並利機器讀取」行政命令(Executive Order 13642–Making Open and Machine Readable the New Defaut for Government Information),推崇聯邦政府過去釋出氣候、全球定位系統(GPS)等資訊對於私部門產業創新及新創事業(entrepreneurship and star-up)之正面影響,盼未來所有新增加的政府資料在資訊安全和隱私權雙重確保之前提下,將開放以可供機器可讀取之格式給公共大眾,帶動整體經濟正面循環發展。之前,美國推動聯邦政府資料開放政策,重要者為白宮科學技術政策辦公室(Office of Science and Technology Policy, OSTP)於2009年3月份啟動「開放政府倡議」(Open Government Initiative),民眾可透過「Data.gov」入口網站 ,取得高價值、機器可讀取之聯邦政府資料。   近年來,在公部門政府政策鼓勵導引下,不同的產業也逐漸發展出適用於特定產業的共同互通性標準(sectoral interoparability)。以醫療衛生領域為例,從2010年開始,歐巴馬總統乃宣布「藍色按鈕倡議」(Blue Button Initiative),病患得透過特定網頁(web-based)簡易下載其健康資訊(health information),並可供重複利用的格式下;同時,患者也可以選擇將該資訊分享給健康照護提供者(health care provider)、保險公司和信任的第三者(trusted third parties)。該倡議更挑戰軟體開發者(developer)在藍色按鈕的基礎上,開發更多的Apps軟體,使當事人更容易去管理掌控自身健康的狀況。在能源科技領域,近似於藍色按鈕倡議,白宮幕僚科技長Aneesh Chopra於2011年9月,也發起了「綠色按鈕倡議」(green button initaitive),挑戰美國境內大小事業單位(utilities)投入參與該倡議,研發一個機器可讀取之開放格式(a machine-readable open format),使消費者得透過連線網路重複近取之。   有鑒於網際網路開放的特性,且近年來來自外國網路攻擊不斷,於2013年2月份,NIST與國際間重要標準組織,如ISO、IEC和IEEE,首度就感應網絡(sensor networks)、機器對機器(M2M)和智慧聯網(IoT),提出一個跨界面之共通標準計畫(ISO/IEC/IEEE P21451-1-4 XMPP),該共通標準計畫內容包含: 封包傳輸(檢測)、全球獨特辨識、政策控制和加密,此共通標準得確保未來巨量資料領域資料近取之安全性 。

德國慕尼黑地方法院日前認定特斯拉關於「Autopilot」等銷售(廣告)標示將誤導消費者

  自特斯拉(Tesla)推行Autopilot(此於特斯拉之繁體中文官網譯作自動輔助駕駛)以降,其原先宣稱可免手動(Hands free),但經美國國家公路交通安全管理局(National Highway Traffic Safety Administration,NHTSA)指摘特斯拉前述宣稱可能使駕駛人注意力渙散而發生事故,似乎影響近年來特斯拉對於其自動輔助駕駛系統之論調,而改要求駕駛人即便開啟該系統仍須將手放置於方向盤上。除了前揭特斯拉於車輛銷售(廣告)資訊所生的爭議外,日前2020年7月間德國慕尼黑第一地方法院(Landgericht München I)之合議庭的判決,認定特斯拉於其車輛(Model 3)之銷售(廣告)標示資訊的整體,以及原告競爭中心(Wettbewerbszentrale)所分別主張之內容,均屬不正當競爭防制法(Gesetz gegen den unlauteren Wettbewerb,UWG)第5條第1項第2句第1款之誤導性商業行為(Irreführende geschäftliche Handlungen,或譯作引人錯誤之交易行為)。   本件之爭點核心在於特斯拉現行車輛既有配備之Autopilot系統,以及消費者可自行選購之Volles Potenzial für autonomes Fahren(德文直譯:具備完全自動駕駛潛力,而特斯拉之繁體中文官網譯作全自動輔助駕駛)系統等用詞,因其等涉及車輛功能與設備之決定性概念和資訊,則與現行「車輛駕駛輔助系統」(Fahrassistenzsystem)存有落差,進而導致消費者理解與實際情況不一致之情形。   法院認定理由在於不論特斯拉之Autopilot或Volles Potenzial für autonomes Fahren等系統,均無法達到毋須人為介入行駛的情境,即便其於官網上有另行標註目前該等系統功能有限,仍須駕駛人主動監控所有行駛環境等,但因該等內容說明不夠透明與清晰,而仍無法排除其等資訊具有誤導性,故特斯拉使用Autopilot等詞以及其他暗示車輛技術上能完全自主(vollkommen autonom)等用語,將引起消費者錯誤認知其可在德國的道路上運行完全自主之自動駕駛系統(註:此部分似係指SAE標準等級5之自動駕駛系統,然德國道路交通法目前僅開放運行等級4以下之自駕系統)。不過該判決結果仍可上訴。

TOP