歐盟提出現行個資保護指令規範之修正草案
科技法律研究所
2013年10月07日
壹、事件摘要
歐盟於1995年所制定之「個人資料保護指令」(Data Protection Directive,95/46/EC,下稱個資保護指令),其基本原則確保了歐盟會員國個人資料基本權利之保障,後續也成為國際相關立法時之參考依據。但由於個資保護指令制定時為框架式立法模式,歐盟各會員國仍須將相關規定內國法化,導致各會員國間對於個人資料保護標準產生差距。
貳、重點說明
一、立法緣起
歐盟現行之「個資保護指令」是第一部解決關於個人資料處理與自由流通保護之指令,主要在於提供歐盟境內關於個人資料及隱私權保護之規定。但由於該指令使各會員國之規範不具統一性,且制定之時科技尚屬發展階段。為解決科技發展與各國形成之保護差距,歐盟執委會(European Commission)在2012年1 月25 日,向歐洲理事會(European Commission)及歐洲議會(European Parliament)正式提出「一般個人資料保護規則」(General Data Protection Regulation)草案共91 條。預計於2015年施行,並取代現行個資保護指令,全面並一致性適用於各會員國。
二、關鍵改變
本次一般個人資料保護規則草案相較於現行個資保護指令,主要有資料當事人權利行使新增與強化、當事人同意要件標準提高、適用主體擴大、申訴權力強化、資料管理人資料保護責任之加重、損害賠償與相關罰則之規定等,並將各項規定更加明確化,以解決長期以來歐盟會員國間因保護水準不一所形成之衝突現象。
參、事件評析
一般個人資料規則草案提出後,歐盟與英國分別針對新規則草案進行評估。歐盟執委會認為,新規則可協助歐盟境內解決長期以來因個資法保護水準不一所形成之衝突,進而為當地企業帶來約23億歐元之效益;但英國當地卻持反面見解,認為新法將使企業提高所需擔負之行政成本,且高規格之法遵要求也使資料管理人陷入難以遵守之情況,進而影響歐盟之競爭力。國際上激烈的討論聲浪與分歧之見解,也使得該規則草案自提出至今已一年多的時間,仍未正式拍板定案。
歐盟於1995年制定之個資保護指令,自1998年生效之後,不僅在各會員國進行個資保護時扮演關鍵性角色,更為國際上個人資料保護或隱私保護之參考依據,其動向更為各國所專注與留意。而隨著時代轉變與科技演進,歐盟期許未來不只是在歐盟境內,更可將個人資料或隱私保護相關資訊與要求,擴及歐盟以外之國家,因而於2012年提出新規則草案,而後續相關發展,更值得我們持續留意跟進。
印度電力部(Ministry of Power)於2022年2月17日公布「綠色氫能政策」(Green Hydrogen Policy),宣告未來擬透過稅制、費用等誘因,建立綠色氫能產業鏈,以達到印度於COP26高峰會所承諾之減碳目標。 有鑑於綠色氫能是直接由再生能源電力所產生,故其相較於灰色氫能(註:由石化過程所產生之氫能)及藍色氫能(註:經碳封存之灰氫)而言,擁有更低之碳排放,有助於印度於COP26高峰會所承諾之減碳目標。然於技術或經濟層面而言,綠氫成本因為其產生、運輸、儲存過程要求相當高之費用以及成本,故遲遲無法普及,印度電力部為增進業者建立氫能產業鏈之經濟誘因,於2月17日公布前揭政策,以為因應。 印度電力部前揭政策,擬針對用地、電力市場等法規進行調適,相關法規調適重點如下: 定義綠色氫能為「直供」或「轉供」再生能源電力電解所得之氫能,也包含生物質能所生產之氫能。 於2025年6月30日前營運之綠色氫能生產業者,可免除25年之州際電力傳輸費用。 前揭綠色氫能生產業者,其所使用之電力可以是就地自再生能源發電設備取得(co-located),也可以是透過電力傳輸自其他再生能源發電設備所取得,不論該綠色氫能業者是否實際營運再生能源發電設備。 綠色氫能生產設備可被視為再生能源發電設備,被設置在相關用地上,並且,將開放綠色氫能設備設置於商港區域,以利綠氫出口。 因生產氫能所消耗或購買之再生能源電力,可計入RPS或RPO(Renewable Purchase Obligation)義務容量當中。 各州輸配電業,應允許綠色氫能生產業者加入電力交易市場。 承上,綠色氫能生產業者可進入餘電交易(banking)市場,並且餘電交易手續費應不超過「前一年度再生能源FIT價格」以及「當月日前交易市場之平均交易價格」間之差額。以避免氫能業者因經濟理由而被排除於餘電市場外。 但不論如何,對於印度而言,綠色氫能還只是發展初期階段,目前綠色氫能價格為每公斤3至6.5美元,而印度政府目標是於2030年將其降至1美元。對於大量仰賴能源進口之印度而言(85%石油及53%天然氣為進口),綠色氫能對於該國之能源自主有著相當重要的角色,因此印度政府將不餘遺力發展氫能。
歐盟通過反脅迫規則,將針對他國的經濟脅迫手段採取反制措施歐盟理事會(European Council)表示已與歐盟執委會(European Commission,以下簡稱「執委會」)、議會(European Parliament)於2023年11月22日完成《保護歐盟及其成員國免受第三國經濟脅迫規則》(Regulation on the protection of the Union and its Member States from economic coercion by third countries,以下簡稱「反脅迫規則」)之立法流程,並將於2023年12月27日正式施行生效。 該法起源於中國大陸於2021年為抗議立陶宛(Lithuania)同意我國政府以「臺灣」名義在其首都維爾紐斯(Vilnius)設立代表處,停止輸入多項產品,導致立陶宛對中貿易額大幅降低。歐盟為避免特定國家持續利用此種經濟脅迫手段影響歐盟交易市場與會員國之主權,決定立法採行反制措施,並於2021年之貿易政策回顧(2021 Trade Policy Review)公布《反脅迫規則》之立法框架。 根據《反脅迫規則》,執委會得根據會員國、歐盟議會及其他經濟聯盟所提供之資訊進行職權(ex officio)調查;亦可依照受脅迫之會員國或企業的請求進行調查。在調查階段,執委會會在4個月內判斷特定國家之行為是否確實造成經濟脅迫,若確實存在,將進一步評估其對歐盟帶來之影響。調查完成後,若他國政府確實對歐盟成員國或企業實施經濟脅迫手段,執委會將提交報告與理事會進行決議,通過後,執委會將先採行不干涉措施(non-interventionist measures),與實施經濟脅迫手段之國家進行協商,並要求賠償因經濟脅迫而產生的損害。若採行不干涉措施後仍無改善,執委會得考慮採行干涉措施(interventionist measures),包含但不限於限制特定企業進入歐盟市場與投標政府採購案;終止對特定國家的關稅優惠,並課予額外之關稅等,以阻止該特定國家繼續干擾歐盟經濟體。
全球創新指數(GII)評估COVID-19對於全球創新的影響全球創新指數(Global Innovation Index,簡稱GII)為世界智慧財產權組織(WIPO)與歐洲工商管理學院(INSEAD)等單位,共同衡量全球經濟創新績效之參考指標,於今年(2020)9月2日所發佈的全球創新指數顯示,COVID-19嚴重的阻礙全球創新的發展,但卻也對於特定領域(如醫療衛生)帶來新的創新契機。 今年與2009年(全球經濟危機時)相比,世界金融體系運作仍保持平穩,但用於資助創新型企業的資金,由於全球投資者對於疫情影響新創企業營利表現擔憂,資金的投入也連帶受到影響。而在創新融資方面,鎖定新創早期階段投資的創投公司為確保日後競爭力,轉向對當今熱門標的(如生命科學等)等進行投資,若屬於研發密集型新創企業(研發時間較長)及非投資熱點(區域)的企業,投資方面則所受疫情衝擊較大。 觀察全球主要國家,雖然皆制訂相關補助計劃用以緩解因疫情所帶來之衝擊,例如中短期欲透過貸款擔保爲企業提供支持。然而,這些補助措施並非直接爲創新和新創企業提供資金。儘管如此,專家對於全球科學和創新受COVID-19的影響也非全然悲觀,部分源自於全球對於資本回報的期待,也預估未來風險投資及創新也將轉向醫療衛生、遠距教學、大數據、電子商務、機器人等領域。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。