為重新對各類再生能源與用於大眾運輸工具之生質燃料使用量確立具約束力之目標,歐洲議會下之工業及能源委員會於2008(今)年9月11日決定批准一項跨黨派協議案。
今年年初,歐盟執委會曾遞交一項促進歐盟境內對再生能源使用量之建議案,亦即設定至2020年時,歐盟境內再生能源使用量應達總能源使用量之20%;同時,該建議案也包含了一項關於生質燃料使用量亦應達到10%之目標。不過,在考慮關於不斷上揚之糧食價格、生物多樣性之消失及廣受質疑之CO2減量價值等因素後,也導致許多團體要求降低執委會最初設定之目標。而經過數月詳細地分析2千多份修正案報告後,執委會再生能源建議案報告起草人Turmes,在今年9月中旬宣佈,該項建議案目前現已獲得跨黨派支持。
於Turmes報告中,其建議應對生質燃料之使用訂立階段性目標:即(1)至2015年時應達到5%;及(2)至2020年時則應增加至10%;同時,其還特定,就未來達成生質燃油使用比例目標而言,至少有40%應要透過利用「非以糧食或飼料競爭性」為原料之第二代生質燃料,或使用綠色電能與氫能源環保車而來;至於其他種類生質燃油之利用,則應須在符合嚴格之環境永續性標準下,方能一併被納入計算。而為支持年初所提之建議案,德國、英國及波蘭等國也在6月份提出一項新的彈性機制:即在會員國間可透過合作型計畫來達成各自之目標。此外,對至2020年未達目標之會員國,歐洲議會成員將另批准一套「財務性懲罰原則」來處理之;同時,就懲罰所取得之款項,也將成立一項獎勵專款來激勵超過目標之國家。
不過,綠色組織團體卻認為利用生質燃料因具後述缺點如:(1)成本昂貴、(2)對氣候保護方面並無任何助益、及(3)利用不符永續性標準之生質燃油也僅是增加生物多樣性流失與糧食價格而已,故而對於議會批准該協議案感到失望。
本文為「經濟部產業技術司科技專案成果」
數位技術改變人們的生活,為使英國人民、企業及組織接受數位時代的變革,並確保英國做好脫離歐盟(European Union)的準備,英國數位文化媒體及運動部(Department for Digital, Culture Media & Sport)修正1998年的資料保護法(Data Protection Act 1998),於2017年9月14日,提交2017資料保護法草案(Data Protection Bill 2017)(以下簡稱:本草案)予上議院審議,以因應數位時代的來臨。 此次本草案修正的方向為: 一般資料處理(§3-26): 一般資料處理係依歐盟的一般資料保護規則(General Data Protection Regulation,簡稱GDPR)為標準,將歐盟GDPR一般資料處理的相關規範之標準制定於此次修正之資料保護法中,並確保健康、社會安全與教育資料等個人資料之安全維護。另對於個人資料的近用與刪除予以規範以強化公共政策,並維護國家安全。 執法程序(§27-79): 拜科技進步所賜,網路世界如遠弗屆,透過網路跨境傳輸、分享、蒐集資料,並非難事,因此,更需要一個強而有力且一致性的個人資料保護規範框架。警方、檢方或司法刑事機關為偵查犯罪行為,而蒐集、處理或利用個人資料,須有明確、正當、合法的執法目的,對於國際間個人資料的交流利用須依明確的程序規範並賦與相當之保護措施,確保英國退出歐盟後,仍可繼續與歐盟各成員國間聯手偵辦重大犯罪案件,以維護國際間之資訊安全。 國家安全(§80-111): 因國家安全事項不在歐盟法(EU Law)規範範圍之列,故GDPR或指令法律(Law Enforcement Directive,LED)之效力不及於各成員國對於國安全之情資蒐集。故英國本次修法參採個人資料保護公約(Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data,又稱現代化公約108(modernised Convention 108))之精神,將情報單位基於維護國家安全之必要蒐集個人資料之規範,明文納入個人資料保護法之適用,以符合國際間的資訊安全規範標準。 資訊委員與執行(§112-168): 資訊委員(Information Commissioner)係指保護資訊權之公共利益、促使公務機關公開資訊與維護個人資料隱私權之獨立政府官員,得主動偵查犯罪,並得通知或教育廣泛的資料管理者,以提高資料保護之標準。繼2010年賦與資訊委員針對金融犯罪之執法權限之後,本草案亦增列意圖還原已去識別化之個人資料、禁止不當揭露個人資料兩種犯罪類型,賦與資訊委員更廣的處理權責。違反資料保護法(如不當揭露個人資料),將處以行政罰責(最高可處1,700萬英鎊/2,000萬歐元罰鍰)。 本草案除建制一個一般資料處理、執法程序及國家安全的資料保護體系外,更加強對於學術研究、金融服務及兒童保護等領域的資料保護,以因應數位時代之變革。
企業蓋廠房 可造林減抵二氧化碳排放量企業界興建廠房未來若排放的二氧化碳過高,可以透過在國內外協助造林等方式來改善。 農委會日前組成農業森林議題工作小組,積極蒐集國內外相關資料,推廣植樹造林對溫室氣體減量策略及作法,並調查出更精確的碳吸存數據,作為未來碳交易等機制所需的基本資料。其初步估算出每種植一公頃森林可淨吸收七公噸二氧化碳的減量模式。未來將可配合碳交易機制,銷售給需進行二氧化碳減量的業者,農委會已先選定台糖進行合作,未來將推廣至業者的平地造林。 農委會表示,目前的碳交易模式分為兩種,一種是進行國內外的造林,來換取本國二氧化碳的排放量,像是美、日等國,即在中國大陸廣泛種植樹木來換取更多的業者投資,或是在本國境內種植更多的林木,這種交易屬於碳交易。第二種是在本國境內進行溫室氣體的減量,再將減量超過的部分賣給其他國家,亦即清潔費的交易,也屬於廣義的碳交易行為。 為推動我國建立碳交易機制,農委會也已著手進行造林的碳吸存研究,農委會表示,未來碳交易機制建立後,業者興建廠房若排放的二氧化碳超過標準,可以透過協助國內外造林,或付出造林費用給協助造林的單位。在建立交易模式後,未來若企業界興建一座廠房所造成的二氧化碳排放量超過七公噸,即可透過支付一公頃造林費用的方式,達到平衡的效果。
歐盟於2020年3月提出「歐洲氣候法」草案以實踐零碳排願景歐盟執委會(European Commission)於2020年3月6日提出「歐洲氣候法」(European Climate Law)草案,執委會提出該草案之目的,係為實現2019年「歐盟綠色新政」(European Green Deal)所確立的目標,以敦促歐盟所有政策及公、私部門,皆能為零碳排願景共同努力。歐盟期望在2050年前成為世界第一個碳中和地區,並轉型為一個經濟成長卻不損及資源消耗與開採的綠色經濟體。該法性質屬於「規則」(regulation)的法律位階,具有普遍性規範效力,得直接適用於歐盟成員國,意即歐盟成員國必須遵守及實施歐洲氣候法的規範內容。「歐洲氣候法」草案全文共11條條文,其規範重點及法制架構,簡要整理如下: 氣候法草案之法律框架應與歐盟現行政策保持一致性,例如再生能源、綠色新政下的投融資計畫、產業戰略及循環經濟行動計畫等,並審查歐盟能否將原先2030年與1990年相比減少40%的減量目標,提高至減少50至55%。 法律基礎應奠基於維護、保護及改善環境品質,輔助及加強國家與地方因應氣候變遷的行動措施;在符合比例原則下,要求歐盟成員國針對氣候中和目標採取必要保護措施。 依據歐盟基本權利憲章第37條環境保護之要求,有關高標準之環境保護及環境品質改善,必須納入歐盟政策及符合永續發展原則;透過氣候法來促成及凝聚社會轉型的共識,該法要求執委會應促進利害關係人及公民社會的參與,增強公民參與的交流,透過社會參與達成廣泛的永續發展共識,並規劃多層次氣候與能源的社會對話。 考量歐盟內部公平且團結的重要性,執委會於2023年9月開始,每隔5年將監測與評估歐盟及各會員國之綱要政策與保護行動,並針對不一致行動或保護不足情形,將提供適當的改善建議及具體措施,藉以確保歐盟成員國彼此間氣候政策與歐盟框架保持一致。 歐盟執委會期望透過具有強制約束力的法制框架,除實現巴黎協定之承諾(2050年前達到零排放之願景)外,更是為了結構性脆弱與抵禦氣候變遷能力不足的成員國,提供一個公平的轉型框架。目前該草案已於2020年5月完成公眾意見徵集,歐盟執委會雖未明確公布預計通過的日期及相關規劃,但其將於2021年6月前盤點相關規範,藉以整體性調修法制規範與氣候治理行動。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。