歐盟透過生態創新(Eco-innovation)減少小客車之二氧化碳排放量

  小客車(passenger car)排放之二氧化碳(CO2)約佔全歐洲排放總量之12%。為落實歐盟第443/2009號規則(Regulation (EC)No 443/2009)關於減少輕型交通工具CO2排放所設定之新小客車排放表現標準,歐盟執委會於今年(2011)7月25日通過執委員會第725/2011號規則(Commission Regulation(EU)No 725/2011,以下簡稱執委會規則),就汽車製造商對CO2減排所為之生態創新(eco-innovation)科技之評鑑、核准及驗證給予更明確之規範,亦提供更多誘因。

  於執委會規則下所認定之生態創新,係指就車輛本質之運輸功能及整體能源消耗有重大改善,且該創新技術(特別是在動力技術方面)於市場上屬未廣泛應用者。此外之附帶目的或旨在提升駕駛或乘客乘坐舒適度之技術,則不在其認定之範圍內(如胎壓監測系統、輪胎轉動阻力、排檔指示、使用生質燃料等,皆不得認定為生態創新)。

  汽車製造商及供應商皆得提交申請書,該申請書應有足以證明其符合各項標準之必要證據,包括測定該項創新科技對CO2減排之方法。在證明其CO2減排之成效方面,應就相同車輛使用該技術與否進行比較且其測試方法應屬可供驗證、可得重覆且可資比較者。執委會規則要求CO2減排成效最低應達1gCO2/km。關於驗證,執委會規則要求由獨立驗證機構為之。驗證單位被要求於驗證報告中提供相關證據以證明其與申請者間之獨立關係,以確保其獨立性。歐盟執委會本身亦得於有證據顯示實際驗證之減排量與經認可之生態創新技術之減排量不符之情況下,再次驗證個別車輛之總減排量,但其應提供製造商一定期間以證明認可之價值屬正確者。

  早在2007年歐盟所提議之立法中,即對於小客車設定了排放效能之標準,該項立法亦於2009被歐洲議會及歐盟理事會所採納,可謂歐盟試圖改善汽車燃料之經濟性及確保歐盟小客車之平均CO2排放不超過130 gCO2/km之基石。實則於今年(2011)初,歐盟執委會亦設下於2050年前,減少導致地球暖化之交通排放氣體達1990年之60%之計畫。至於上述執委會規則中所取得之碳權,皆將納入歐盟碳排放交易計畫中,新綠色科技最高可抵7gCO2/km之排放,預計將就新車平均排放量於2015年前達到130gCO2/km之目標,執委會規則也預計於同年進行檢視,其實際運作情形及後續發展皆值得予以觀察。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟透過生態創新(Eco-innovation)減少小客車之二氧化碳排放量, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=64&tp=1&i=144&d=5518 (最後瀏覽日:2024/04/23)
引註此篇文章
你可能還會想看
智慧財產權管理標準之建立-由管理系統標準談起(上)

歐盟個資保護委員會大致認定南韓個資保護法具適足性認定,但須進一步評估

  歐盟個資保護委員會(EDPB)今(2021)年9月27日,就與南韓個人資料保護法(Personal Information Protection Act, PIPA)之適足性認定草案發表意見,認為南韓的個資保護框架與歐盟大致相同。但EDPB 同時也指出,在歐盟執委會做出決定之前,某些部分仍需要釐清。釐清的部分包含:   今年6月歐盟執委會公布並通過的適足性認定草案中,該草案之可執行性與有效性不應僅拘束南韓個資保護機構,也應對司法機構具有效力。除此之外,EDPB 也針對南韓PIPA 免除多項匿名化資訊之義務提出質疑;又南韓相關法令對「同意」之撤銷(或撤回)事由有所限定,應確保其對資料主體「同意」之保障持續符合適足性認定的要求。   至於在資料進一步移轉(onward transfers)方面,EDPB 認為即便資料主體知悉並同意其個資傳輸,仍應告知其資料是否會移轉到第三國之相關風險;以及若個資主體的同意無法符合GDPR 對有效同意之定義時(例如雙方地位不對等時,該同意即非有效),該個資不會從南韓之資料控管者傳輸至第三國;在對此議題南韓未具體修訂相關法令時,與國安相關的個資若進一步移轉,是否會受到憲法框架(如比例原則)和PIPA 中個資保護原則的充分保障?   而在行政部門存取傳輸到南韓的個資方面,許多議題也需要釐清並引起關注。如與國安方面相關的個資處理,係受PIPA 抑或其他更為限縮的法令限制?又電信業者自願向國安部門揭露使用者個資時,必須同時通知相關的個資主體;EDPB 並希望歐盟執委會釐清,若歐洲經濟區(EEA)內的個人向南韓個資保護機構或司法機構提出救濟時,相關的救濟程序是否實質有效(例如舉證責任的規定為何)?   於新聞稿中,EDPB 主席 Andrea Jelinek 表示:「歐盟對此適足性認定相當重視,因其將涵蓋公部門與私部門資料的傳輸。而適足的個資保護對支持歐盟與南韓的長期關係與個人權利、自由方面至關重要。雖然EDPB 認為南韓的個資保護框架與歐盟大致相同,然仍建議歐盟執委會密切關注適足性認定的各方發展。」

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

美國國家標準與技術研究院「隱私框架1.0版」

  美國國家標準與技術研究院(NIST)於2020年1月16日發布「隱私框架1.0版」(NIST Privacy Framework Version 1.0),為促進資料的有效利用並兼顧對隱私權的保障,以風險管理(risk management)的概念為基礎建構企業組織隱私權管理框架。本隱私框架依循NIST於2018年所提出的「健全關鍵基礎設施資安框架1.1版」(Framework for Improving Critical Infrastructure Cybersecurity Version 1.1)架構,包含框架核心(Core)、狀態評估(Profile)與實施層級(Implementation Tier),以利組織能夠同時導入隱私與資安兩種框架。由隱私框架核心所建構的風險管理機制,透過狀態評估來判斷當前與設定目標的實施層級,進而完成組織在隱私保護上的具體流程與資源配置。   NIST基於透明、共識、兼顧公私利害關係人的程序訂定本隱私框架,用以促進開發者導入隱私設計思維(privacy by design),以及協助組織保護個人隱私,其目標包含透過支持產品或服務設計中的倫理決策(ethical decision-making)及最小化對隱私的侵害來建立客戶的信任;在當前與未來的產品或服務中,因應持續變化的技術與政策環境遵守對隱私的保護義務;以及促進個人、企業夥伴、稽核者(assessor)與監管者(regulator)在隱私權保護實踐上的溝通與合作。   本隱私框架並非法律或法規,亦不具備法律效果,而是做為數位時代下NIST協助企業導入隱私權管理制度的參考工具,企業或組織將能基於本隱私框架靈活應對多樣化的隱私需求,掌握其產品或服務所隱含的隱私權侵害風險,並識別隱私權相關法律規範,包含加州消費者隱私法(California Consumer Privacy Act)與歐盟一般資料保護規則(General Data Protection Regulation, GDPR)等,提出更具創新性與有效性的解決方案,並有效因應AI與物聯網技術的發展趨勢。

TOP