案件緣於Judith Vidal-Hall等三人對Google提告,主張Google規避蘋果公司Safari瀏覽器預設之隱私設定,在未取得用戶同意前,逕行使用cookies追蹤其網路活動,蒐集瀏覽器產生的資訊(the Browser-Generated Information, or ‘BGI’),並利用其對用戶發送目標廣告。原告認為這些作法可能使用戶的隱私資訊被第三人所探知,而且與Google保護隱私之公開聲明立場相違。此案於2015年3月27日由英國上訴審法官做成判決,並進入審理程序(裁判字號:[2015] EWCA Civ 311)。
本案主要爭點包含,究竟用戶因使用瀏覽器所產生的資訊是否屬於個人資料?濫用隱私資訊是否構成侵權行為?以及在沒有金錢損失(pecuniary loss)的情形下,是否仍符合英國資料保護法(Data Protection Act 1998)第13條所指損害(damage)的定義,進而得請求損害賠償?
法院於判決認定,英國資料保護法旨在實現「歐盟個人資料保護指令」(Data Protection Directive,95/46/EC)保護隱私權的規定,而非經濟上之權利,用以確保資料處理系統(data-processing systems)尊重並保護個人的基本權利及自由。並進一步說明,因隱私權的侵害往往造成精神損害,而非財產損害,從歐洲人權公約(European Convention of Human Rights)第八條之規定觀之,為求對於隱私權的保障,允許非財產權利的回復;倘若限縮對於損害(damage)的解釋,將會有礙於「歐盟個人資料保護指令」立法目的的貫徹。
法院強調,該判決並未創造新的訴因(cause of action),而是對於已經存在的訴因給予正確的法律定位。從而,因資料控制者(data controller)的不法侵害行為的任何損害,都可以依據英國資料保護法第13條第2項請求損害賠償。
本案原告律師表示:「這是一則具有里程碑意義的判決。」、「這開啟了一扇門,讓數以百萬計的英國蘋果用戶有機會對Google提起集體訴訟」。原告之一的Judith Vidal-Hall對此也表示肯定:「這是一場以弱勝強(David and Goliath)的勝利。」
註:Google 在2012年,曾因對蘋果公司在美國蒐集使用Safari瀏覽器用戶的個資,與美國聯邦貿易委員會(United States Federal Trade Commission)以2,250萬美元進行和解。
隨著網路技術的進步,資安事件亦日益加增,為了因應日趨頻繁的網路攻擊,美國總統歐巴馬於2016年7月26日發布了對於美國資安事件發生時聯邦部門間協調之指令(PRESIDENTIAL POLICY DIRECTIVE/PPD-41),該指令不僅提出聯邦政府對於資安事件回應的處理原則,並建立了聯邦政府各部門間對於發生重大資安事件時之協調指引。 指令中就資安事件及重大資安事件進行了定義:資安事件包含資訊系統漏洞、系統安全程序、內部控制、利用電腦漏洞的執行;而重大資安事件則指可能對國家安全利益、外交關係、美國經濟、人民信心、民眾自由或大眾健康與安全發生明顯危害的有關攻擊。 此外,就遭遇資安事件時,列舉出下列幾點作為聯邦政府因應資安事件時之原則:(A)責任分擔;(B)基於風險的回應;(C)尊重受影響者;(D)政府力量之聯合;(E)促進重建及恢復。 聯邦政府機關於因應資安事件時,需同時在威脅、資產及情報支援三方面上做相關之因應。其中司法部透過轄下聯邦調查局(Federal Bureau of Investigation, FBI)、國家網路調查聯合行動小組(National Cyber Investigative Joint Task Force, NCIJTF)負責威脅之回應;國土安全部(Department of Homeland Security, DHS)則透過轄下的國家網路安全與通訊整合中心(National Cybersecurity and Communications Integration Center, NCCIC)負責保護資產之部分,而情報支援部分,則由國家情報總監辦公室(Office of the Director of National Intelligence)下之網路威脅情報整合中心(Cyber Threat Intelligence Integration Center)負責相關事宜。如係政府機關本身遭受影響,則機關應處理該資安事件對其業務運作、客戶及員工之影響。另在遭遇重大資安事件時,為使聯邦政府能有效率因應,指令指出聯邦政府應就國家政策、全國業務及機關間為協調。此外,指令中亦指示國土安全部及司法部應建立當個人或組織遭遇資安事件時得以聯繫相關聯邦機關之管道。 該指令加強了現有政策的執行,並就美國機構組織上於資安事件與現行政策之互動做了進一步之解釋。
世界衛生組織透過「COVID-19疫苗全球取得機制COVAX」,促進疫苗研發及公平分配世界衛生組織(World Health Organization, WHO)於2020年8月24日公布「COVID-19疫苗全球取得機制(COVID-19 Vaccines Global Access Facility, COVAX)」,由全球疫苗與預防注射聯盟(Global Alliance for Vaccines and Immunisation, GAVI)、流行病預防創新聯盟(Coalition for Epidemic Preparedness Innovations, CEPI)及WHO共同主導,與多家疫苗廠商合作,協助取得多種疫苗組合的授權及核准,促進COVID-19全球疫苗研發及公平分配。 COVAX是WHO「獲取COVID- 19工具加速計畫(Access to COVID-19 Tools Accelerator, ACT Accelerator)」下的疫苗分配機制。ACT-Accelerator透過匯集各國政府、衛生機構、科學界、產業界、民間團體的力量,共同合作開發創新診斷方法、加速融資研發治療工具、制定公平分配與交付疫苗機制、確保衛生系統與社區網路連接等四大領域,以盡快結束大流行疫情。 COVAX作為COVID-19疫苗聯合採購機制,預計2021年底要提供20億劑疫苗,籌資181億美元;由GAVI與高收入國家簽訂投資契約,透過全球融資機制採購9.5億劑疫苗,同時搭配WHO制定的疫苗倫理分配架構,使COVAX能夠集中各國經濟體的購買力,保證候選疫苗的採購數量,鼓勵擁有專業知識的疫苗廠商盡速投入大規模的新疫苗生產,確保參與COVAX的國家及經濟體,皆能迅速、公平公正地取得大量有效的疫苗。 COVAX承諾將為全球92個中低收入經濟體提供參與COVAX的融資工具;超過80個高收入經濟體已提交參與COVAX的意向書,將從公共財政預算中編列全球疫苗研發的捐助資金,並與92個中低收入國家結成疫苗合作夥伴。透過COVAX機制產出的疫苗,將會按照參與國人口比例公平地分配給所有國家,並且優先提供疫苗給衛生醫療工作者、老年人及疾病弱勢群體;隨後再根據各國家需求、易受感染程度與COVID-19威脅情況,提供更多劑量的支援。
英國資訊委員辦公室推出資料分析工具箱協助組織檢視資料保護情形英國資訊委員辦公室(Information Commissioner's Office, ICO)於今(2021)年2月17日推出資料分析工具箱(data analytics toolkit)供所有考慮對個人資料進行資料分析的組織使用,旨在幫助組織駕馭人工智慧(Artificial Intelligence, AI)系統對個人權利所可能帶來的挑戰。 ICO表示,越來越多的組織使用AI來完成特定任務,例如使用軟體自動發現資料集(data sets)的模式,並藉此進行預測(predictions)、分類(classifications)或風險評分(risk scores),組織在使用個人資料進行資料分析時,納入資料保護的概念是至關重要的,除符合法律要求外,也能增強民眾對技術的信任與信心。 使用ICO的資料分析工具箱時,首先會詢問組織所適用的法律,並引導至相對應的頁面,並透過合法性(lawfulness)、問責與治理(accountability and governance)、資料保護原則(data protection principles)以及資料主體權利(data subject rights)等一系列的問題瞭解組織的資料保護情形,在回答所有問題之後,工具箱將產生一份報告,提供組織關於資料保護的建議,提高組織資料保護的法令遵循程度。 ICO強調,組織應該要在個人資料處理的過程中考量報告中所提及的建議,並向組織的資料保護長(Data Protection Officer, DPO)徵詢其意見,在組織委託、設計與實施資料分析時落實個人權利與自由的保障。
英國政府提交予國會「人工智慧監管規範政策報告」英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。