荷蘭資料保護局(Data Protection Authority, DPA)歷經長達七個月的調查,於2013年11月28日發布新聞稿,聲明Google違反該國資料保護法,因其未適當告知用戶他們蒐集了什麼資料、對資料做了些什麼事。
DPA主席Jacob Kohnstamm表示:「Google在未經你我同意的情形下,對我們的個人資料編織了一張無形的網,而這是違法的。」調查報告援引了Google執行長Eric Schmidt在2010年一場訪談中所說的話:「你不用鍵入任何字,我們知道你正在什麼地方、去過什麼地方,甚至或多或少知道你在想些什麼。」。
調查顯示Google為了展示個人化的廣告及提供個人化的服務,而將不同服務取得的個人資料加以合併,如搜尋記錄、所在位置及觀看過的影片等。然而,從用戶的觀點來看,這些服務係基於全然不同的目的,而Google亦未事先提供用戶同意或拒絕的選項。依照荷蘭資料保護法的規定,Google合併個人資料前,應經當事人明示同意,而該同意無法藉由概括(隱私)服務條款取得。針對DPA的聲明,Google回應他們已經提供用戶詳細資訊,完全符合荷蘭法律。
DPA表示將通知Google出席聽證會,就調查結果進行討論,並決定是否對Google採取強制措施。但是,從Google的回應看來,他們不太可能在聽證過後改變心意。以先前Google街景車透過Wi-fi無線網路蒐集資料的案例為鑑,Google(市值達3500億美元)若繼續拒絕遵循,將有可能面臨高達1佰萬歐元的罰鍰。
英國數位、文化、媒體暨體育部(Department for Digital, Culture, Media & Sport, DCMS)於2022年12月9日公布「應用程式商店經營者與開發者實踐準則」(Code of practice for app store operators and app developers),並規劃在未來九個月內要求Apple、華為、Microsoft等公司採行,以加強對消費者的隱私與資安保護。 根據該實踐準則之內容,APP商店經營者和開發者須滿足以下要求: (1)以友善使用者的方式與消費者共享資安和隱私資訊,如APP何時將無法在商店中取得、APP最近一次更新的時間、APP儲存與處理使用者資料的位置等。 (2)即便消費者禁用部分可選的功能與權限(如不允許APP使用麥克風或追蹤使用者位置),該APP仍可正常執行。 (3)制定穩定且具透明性的APP審查程序,以確保滿足實踐準則中資安與隱私最低要求的APP方能在商店內上架。 (4)當APP因資安或隱私原因無法於商店內上架時,向開發者提供明確的反饋。 (5)制定妥適的弱點揭露程序如聯絡表單(contact form),使軟體缺陷可在非公開(避免受駭客利用)的情況下被報告及解決。 (6)確保開發者即時更新其APP,以減少APP中的安全弱點數量。 總體而言,實踐準則要求APP必須具備相關程序,使安全專家能夠向開發者報告軟體弱點、確保安全性更新對消費者足夠醒目,以及將資安與隱私資訊透過明確易懂的方式提供給消費者。
美國資通訊設備無障礙使用計畫趨勢觀察 歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。