歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題

  歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。

  指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。

  指引的主要內容包括:
  個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。
  禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。
  GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。
  工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。
  對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。
  「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。
  工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。
  在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7971&no=57&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
歐盟執委會提議檢討WEEE法令規範,並修正回收目標

  歐盟執委會於所公告之電子電機廢棄物回收法令檢視報告(Review of an EU Directive on Recycling Waste Electrical and Electronic Equipment)中建議,對於產品製造商之回收目標規範標準,應從現行概括固定值:每年人均4kg(4kg/capita per year)回收目標,改為變動式比例值:以現行市場商品平均量之65%,作為規範目標並且,由於法令規範課予產品製造商強制回收責任,市場實務上,也出現了產品製造商為了達到WEEE要求規範目標值,轉而向民間回收業者收購「回收憑證(Recycling Certificates)」,並且,因為供需失衡問題,造成回收業者隨意喊價的情形,也多所見聞。     而歐盟執委會為進一步落實環境保護政策,還是打算維持原案,提議對於WEEE規範內容進行檢討修改,並建議各會員國於國內法令增加誘因及鼓勵措施,導引協助產品製造商擴大回收體系、檢視改善回收管理系統,而更具能力對於提高目標規範,能夠落實遵循之。歐盟執委會此項法令修改提議,是否得以真正落實未來立法中,值得再加以觀察。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

日本垃圾電郵法制2005年修正動態

英國公平貿易署公布有三分之一之網路商店未遵守消費者權利保護規範

  英國公平貿易署(Office of Fair Trading,簡稱OFT)公布於2007年底針對網路商店是否遵守消費者保護相關規範進行調查之結果,該項調查選定超過500家購物網站,就其是否遵守消費者保護法令,例如是否於網站上告知其公司所在地址、是否善盡告知消費者相關權利之義務、以及是否踐行標價透明化之規定等實際運行狀況進行調查統計。結果顯示,近乎有31%的網站並未確實遵守歐洲法律對於遠距交易的全額退費規範;有15%並未告知消費者其享有7天鑑賞期之權利;有14%的網站未告知確切之地址;另有40%的網站並未完全將價錢透明化,尤其並未告知商品於標示價格外必要之附加費用,而係於結帳時方告知,故OFT統計,每年消費者因此繳付的非預期費用總計約達一億英鎊。   於英國,消費者進行網路購物,受到遠距販售與電子商務相關規範之保護,例如2000年通過的消費者保護(遠距販售)規則(The Consumer Protection (Distance Selling)Regulations 2000)即就遠距交易中最重要的消費權利保障事項加以規範,此一法規主要適用於企業對消費者的組織性遠距交易活動,惟並不適用於與不動產買賣、金融服務提供、自動販賣設施、利用公共電話進行之行銷以及拍賣行為。主要規範重點,包括交易完成前必要資訊之提供、猶豫期內隨時解除契約之權限、契約解除權之例外、解約後獲得費用返還之權利、消費者返還貨品之義務、卡片付款受詐欺之解約權利等。

TOP