歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。

  指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。

  指引的主要內容包括:
  個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。
  禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。
  GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。
  工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。
  對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。
  「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。
  工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。
  在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7971&no=57&tp=1 (最後瀏覽日:2026/04/01)
引註此篇文章
你可能還會想看
日本公布《空中移動革命藍圖》

  日本經濟產業省與國土交通省共同組成的「空中移動革命之官民協議會」(空の移動革命に向けた官民協議会),於2018年12月20日第4次會議中公布《空中移動革命藍圖》(空の移動革命に向けたロードマップ,以下簡稱「本藍圖」),期待飛天車(electric vertical take-off and landing, eVTOL)的實現可在都市交通阻塞時或欲前往離島、山間地區等情形下,提供新移動方式,也可運用於災害時的急救搬運及迅速運送物資等。   本藍圖之「飛天車」係電動垂直起降型的自動駕駛航空機,外型近似直升機,並規劃三條發展路線:實際應用目標、制度及標準之整備、機體及技術之研發。從實際應用目標出發,本藍圖規劃自2019年開始進行飛行測試和實證實驗,以2023年投入運用為目標。首先從運送「物品」開始進展到「部分地區的乘客」,2030年代將再進一步擴大實用到「都市中的乘客」。也可應用於災害應變、急救、娛樂等方面。   為了實現上述目標,即需整備機體安全性、技能證明等及未來投入商業應用時所需之各項標準及制度。當然機體及技術之研發也相當重要,透過試作機研發確保並證明機體安全性及可靠性、自動飛行之機上及地面管理系統、確保達到商業化程度的飛航距離及靜肅性之技術。並設定於投入應用後的2025年開始,重新檢討制度及提升技術。

華碩因路由器資安漏洞遭起訴一案與美國聯邦貿易委員會達成和解

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於2014年間以路由器(Router)與雲端服務的安全漏洞,導生消費者面臨資安與隱私風險之虞,而依據《聯邦貿易委員會法》第5條(Federal Trade Commission Act, 15 U.S.C. § 45(a))委員會防止不公平競爭違法手段(unfair methods of competition unlawful ; prevention by Commission)之規定,即華碩涉嫌行使不公平或詐欺的手段致影響商業活動之公平競爭為由,對我國知名全球科技公司華碩電腦股份有限公司(ASUSTeK Computer, Inc.)進行起訴 。   本案歷經FTC近二年的調查程序後,華碩公司於2016年2月23日同意FTC的和解條件,即華碩公司應針對部分存在資安疑慮的產品依計畫進行改善,並且於未來20年期間內須接受FTC的獨立稽核(independent audits)。 FTC於該案的起訴報告中指出,華碩於銷售其所生產的路由器產品時,曾對消費者強調該產品具許多資安保障措施,具有得以防止使用者不受駭客攻擊等效果;然而,該產品實際上卻具有嚴重的軟體設計漏洞,使駭客得以在使用者未知的情況下,利用華碩路由器的網頁控制面板(web-based control panel)之設計漏洞,任意改變路由器的安全設定;更有專家發現駭客於入侵華碩製造之路由器產品後,得以強佔使用者的網路頻寬。   此外,華碩允許使用者沿用路由器產品的預設帳號密碼,再加上華碩所提供的AiCloud與AiDisk雲端服務功能,讓使用者得以隨身硬碟建立其私有的雲端儲存空間,使得駭客得藉由上述華碩路由器的設計漏洞直接竊取使用者於隨身硬碟內所儲存的資料。FTC並於起訴聲明中指出,駭客利用華碩路由器產品與相關服務的漏洞,於2014年間成功入侵超過12,900多位產品使用者的雲端儲存空間。除此之外,使華碩更加備受譴責的是,當該漏洞被發現之後,其並未主動向產品的使用者強調產品存在該資安問題,更未告知使用者應下載更正該設計漏洞的軟體更新,因此FTC始決定對華碩進行起訴。

美國法院判決歐巴馬政府幹細胞政策違法餘波蕩漾

  美國哥倫比亞地方法院於今(2010)年8月23日發出暫行性禁制令(preliminary injunction),判定由聯邦政府經費補資助進行的人類胚胎幹細胞研究應暫時停止,此裁判嚴重打擊歐巴馬政府在去年新發布的幹細胞研究政策(Executive Order 13505 - Removing Barriers to Responsible Scientific Research Involving Human Stem Cells)。新政策允許對胚胎幹細胞株進行研究,不論該幹細胞株為前布希政府所允許的有限細胞株,或使用人工授精過程中經明文同意且無償提供研究用之剩餘胚胎。 本禁制令源於去年在新政策公布後,部分反對胚胎研究的團體及成人幹細胞研究科學家主張,美國國家健康研究所(NIH)根據歐巴馬政府新政策所制定的指導方針(NIH Guidelines on Human Stem Cell Research),違反Dickey-Wicker修正案,並侵蝕成人幹細胞的研究經費分配,因此對NIH提出此項訴訟。   Dickey-Wicker修正案禁止NIH從事破壞生命的研究,其為1996年以來國會每年在審理聯邦政府的綜合撥款法時所附帶通過的法律,等於是對NIH研究自由的界線設定。本案承審法官認為,人類胚胎幹細胞研究可能涉及摧毀人類胚胎,違反Dickey-Wicker修正案,因此這項告訴可能勝訴,法院因此同意發出暫時性禁制令。 地方法院此項裁判引發不少爭議,除相關利害關係人悲觀表示美國幹細胞研究因此將受到重創外,對於裁判內容究竟代表什麼意義,各方看法也不盡相同。裁判法官稱此裁判不過使幹細胞研究「維持現狀」(status quo),然而對於所謂的「現狀」,卻有不同解讀,有認為裁判結果意味全面禁止胚胎幹細胞的研究,亦有認為是回歸到布希政府的政策態度。   歐巴馬政府方面認為,其幹細胞政策並不違反Dickey-Wicker修正案,因其資助的研究使用的是「已經製造」出來的胚胎幹細胞株,而非資助破壞胚胎的「程序」,目前聯邦司法部已對此裁判提出上訴;另為了徹底解決此項爭議,眾議院於9月新會期一開始,已有議員正式提出法案(Stem Cell Research Advancement Act of 2010, S. 3766),內容除將歐巴馬總統之政策予以法制化外,也明文排除Dickey-Wicker修正案於幹細胞研究之適用,希冀徹底解決美國胚胎幹細胞研究爭議。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP