歐盟個人資料保護工作小組就目的限制原則發表意見

  2013年4月2日,歐盟個人資料保護工作小組(the Article 29 Working Party,以下稱「工作小組」),就目的限制原則(purpose limitation principle)發表意見書,檢視歐盟資料保護指令(Data Protection Directive)第六條所規定的目的限制原則,包括(一)資料的蒐集必須具有特定、明確與合法之目的,以及(二)資料的處理或利用必須符合資料蒐集時之目的。

 

  另一方面,工作小組亦檢視目的限制原則對巨量資料(big data)與開放資料(open data)可能會造成的潛在衝擊:

1.就巨量資料的部分而言,工作小組界定了二個應用情境,一是分析巨量資訊,以分析辨識趨勢或資訊間的相關性,另一是直接影響個人(例如,對當事人的行為進行追蹤、分析、側寫,並據此進行廣告與行銷)。對此,工作小組認為,應給予當事人選擇的權利,另外,組織應揭露關決策標準,並且提供當事人之側寫資料。

2.關於開放資料,工作小組強調匿名化以及資料保護衝擊分析的重要性,以確保必要的安全措施。

 

  工作小組提出兩項修正意見,包括(一)個人資料保護規則(General Data Protection Regulation)草案的第五條宜針對目的限制原則為更明確之規定,以及(二)刪除個人資料保護規則草案第六條第四項之規定。

相關連結
※ 歐盟個人資料保護工作小組就目的限制原則發表意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6060&no=55&tp=1 (最後瀏覽日:2025/11/13)
引註此篇文章
你可能還會想看
美國白宮對具危險性的生物研究提出新規範

  美國白宮為避免由聯邦補助的生物科技研究案,因研究涉及具危險性生物,而不經意製造出生化武器,繼此於2014年9月24日由國家衛生研究院(National Institutes of Health,NIH)和白宮科技政策辦公室(White House Office of Science and Technology)共同提出新規範,即「美國政府對生物科學雙重用途研究與考量的機構監督政策」(United States Government Policy for Institutional Oversight of Life Sciences Dual Use Research of Concern),旨在加強由聯邦預算補助的生物雙重用途研究(Dual Use of Research)安全性。   前述生物科技研究中的生物雙重用途研究,意指以增進公共衛生、國家安全、農業、環境等為主旨的生命科學研究之外,尚有其他具殺傷力或致命性的合法研究,例如合成病毒、除草劑等。早於2013年,美國白宮即已開始實施「美國政府對生物科學雙重用途研究與考量的監督政策」(United States Government Policy for Oversight of Life Sciences Dual Use Research of Concern),惟本次另以機構為主要規範對象。而作成新規範之重點分述為三如下: 1.原先以補助單位(通常為國家衛生研究院),為具危險性生物研究案為監督、責成單位,現將該監督責任歸屬移轉至取得相關補助的科學家、大學或研究機構。 2.從事相關具危險性生物研究之科學家,必須通報其所屬機構,並且須召開審查委員會評估相關風險,亦須通知聯邦層級的補助單位。此外,該科學家與其機構必須提交一份風險防範之計畫書,例如建立生物安全等級(biosafety rating)較高的實驗室等。 3.違反相關規範之受補助對象,將面臨中止、限制或終止補助之處分,甚至失去申請未來聯邦補助單位所補助一切與生命科學相關研究補助的機會。

美國第三州!科羅拉多州正式通過《科羅拉多州隱私法》

  美國科羅拉多州州長於2021年7月正式簽署《科羅拉多州隱私法》(Colorado Privacy Act, CPA)草案,科羅拉多州正式成為美國第三個制定全面性隱私專法的州,該法將於2023年7月1日施行。   隨著全球化及科技快速發展,以及大數據的應用趨勢,資料的蒐集、處理、利用規模及範圍逐漸擴大,全美各地隱私保護規範遍地開花,期待能促使企業在「保護個人資料」與「資料自由流通」及「資料商業運用」中取得平衡。 2018年美國加州首先制定《加州消費者隱私保護法》(California Consumer Privacy Act, CCPA)成為全美第一州級隱私保護專法後,包含華盛頓州、伊利諾州、紐約州等,也都提出各該州級隱私保護法案,而美國維吉尼亞州議會於今年2月通過《消費者資料保護法》(Consumer Data Protection Act, CDPA)法案,並在3月經由州長簽署,正式成為美國第二個擁有隱私保護專法的州,該法預計於2023年1月1日生效。   科羅拉多州於今年6月將CPA草案送交州長簽署後,於7月順利成為第三個通過隱私保護專法的州。一旦CPA生效,消費者除將享有近用權(right of access)、更正權(right of correct)、刪除權(right of delete)、資料可攜權(right of data portability)外;CPA規定在資料控制者對其消費者進行目標式廣告(targeted advertising)、銷售消費者個人資料,或者將對消費者決策產生重大影響時,消費者享有選擇退出權(right to opt out)。   整體而言,儘管 CPA 與CCPA及CDPA規範相似,在隱私保護規範上可能不是特別具有開創性,但CPA反映了美國各州強化隱私保護的趨勢與決心。舉例而言,去(2020)年不僅美國大選結果受矚目,美國各州隱私保護相關公投案,包含《加州第24號提案》、麻州《汽機車機械資料》、密西根州《電子資訊搜索票》及緬因州波特蘭市《臉部辨識禁令》也獲通過。美國在尚未具有統一聯邦隱私保護法下,透過州級隱私立法,保有各州特色並作為各州隱私保護執法依據。

宣傳板畫上商標及「即將開業」 Chanel控訴藝術展侵權

  奢侈品牌Chanel即將在加拿大郊區開設新的據點?在2014.05,一個嶄新的Chanel即將在此營業的招牌顯立在加拿大東丹佛區。   原來,這是一個名為丹佛藝術節(Art of the Danforth)即將於2014.05.11展開,在東丹佛舉辦、超過20個展覽作品的大型免費的公眾藝術活動。藝術節總監Asad Raza表示,這個展品由藝術家Mahmood Popal負責構思,期望能藉此探討「去高檔化」議題,並透過展品「抓住第一間奢侈品店進入尋常百姓家的一刻」。因此,在一塊黑色大型展板上,畫上Chanel的商標和名稱,並寫上「即將開業」字樣。而這樣的表現方式,並未有實際銷售或與Chanel競爭的目的,僅僅是作為一個豎立在地面上的裝置藝術。   對此,Chanel加拿大發言人表示,Chanel即代表了其品牌精神、價值及形象,如果任何人有需要使用,應事先知會Chanel,並獲得Chanel授權同意:「我們希望在使用前應要向我們提出詢問,主要是為了確保這樣的使用方式或內容符合Chanel的品牌價值、形象、及企業願景。此外,Chanel標識之使用有一定的規範,從不會以其他的變動方式去使用Chanel標識,避免發生減損Chanel的品牌形象的情況。舉例來說,我們從來不使用這個標誌的方式與雙“C”以上的香奈兒標誌。如果使用人在用之前,可以事先與我們做溝通,我們也可以進行相關的控制,並使它看起來更真實。」   針對本件的使用,Chanel加拿大發言人事後表示,當確定是公共藝術的使用時,就未採取相關的訴訟措施,但如果未獲授權使用品牌Chanel的商標而有侵權情形時,將會考慮提起訴訟。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP