OECD:汙染性能源稅收過低無法激勵低碳轉型

  經濟合作與發展組織(OECD)2019年9月20日根據《2019年能源使用稅(Taxing Energy Use 2019)》報告指出,汙染性能源會造成地球與人類健康的危害,而課徵「汙染性能源稅」是降低其排放的有效方法,且稅收尚可用於協助低碳轉型,但在報告所研究的44個國家能源排放量佔全球80%以上,與能源有關的二氧化碳排放中卻有70%未徵稅,課徵的汙染燃料稅過低,無法促使其改用較為清潔的能源(cleaner energy),而無法鼓勵低碳能源轉型。

  能源稅中,道路燃料稅相對較高,但無法反映其造成環境損害的成本;煤炭稅在多數國家中幾乎為零,但煤炭的碳排放幾乎佔了能源碳排放的一半;天然氣是較為潔淨的能源,其稅收通常較高。在非道路的能源碳排放中,有97%被徵稅,但44個國家中只有4個國家(丹麥、荷蘭、挪威、瑞士)的徵稅在每噸30歐元以上,遠低於環境損害的程度,近年來甚至有國家降低能源稅。

  該報告表示,改善稅收政策、為低碳技術提供公平的機會,將有助於將投資轉向更環保的選擇,且額外的稅收可用於社會目的,例如降低所得稅、增加基礎設施或醫療健保支出,OECD未來將衡量減排與其他社會目標(如健康與工作),採取有效的激勵措施減少碳排放,並呼籲各國政府應正視此一問題。

相關連結
相關附件
※ OECD:汙染性能源稅收過低無法激勵低碳轉型, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8379&no=67&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
英國資訊委員辦公室(ICO)發布沙盒執行過程中所觀察到的關鍵議題

  2019年9月英國資訊委員辦公室(Information Commissioner's Office, ICO)啟動沙盒計畫(ICO Sandbox)測試階段(beta phase),由ICO所選10個測試專案,透過解決當今社會問題,例如如何減少暴力犯罪、大學如何促進學生的心理健康、新技術如何改善醫療保健等,期能促進公眾利益。   各專案在滿足創新性和可行性前提下,同時也面臨著複雜的資料保護議題,因此ICO持續與各專案溝通,提供其應用現有個資保護指引之建議,如歐盟一般資料保護規則之資料保護影響評估指導文件(Guide to the GDPR - Data protection impact assessment)、資料保護自我評估工具包(Data protection self-assessment toolkit)等。自2019年3月底開始(受理申請)迄今,ICO沙盒執行過程中所觀察到的關鍵議題如下: 公部門資料應用效益:部份參與者正在克服與公部門進行歷史資料共享,或是如何整合應用大數據等。個人資料與新技術應用,必須與資料主體的權利和自由進行權衡。 同意:確保各方對於「同意」(Consent)之理解,以弭平差異,同時向公眾提供透明資訊。 新技術的挑戰:應用語音生物辨識(voice biometrics)、臉部辨識技術(facial recognition technology, FRT)等,需要在適當基礎上處理特殊類別資料。 資料分析(Data analytics):以符合資料保護的方式進行資料分析,處理特殊類別資料的適法性,評估處理過程中的風險,並檢查可能用於資料分析的資料來源,確保符合目的之應用。   未來的6個月,ICO將持續與各專案合作,使其為有效的解決方案,為公眾提供創新合規之產品與服務,並成為未來結合資料保護和創新應用之規劃藍圖,以奠定隱私保護的基石。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

基改種子與專利品銷售後使用限制之爭議-美國判決之觀點

中國大陸之國家互聯網信息辦公室發布《國家網絡安全事件報告管理辦法》

中國大陸之國家互聯網信息辦公室於2025年9月11日發布《國家網絡安全事件報告管理辦法(下稱網安事件管理辦法)》,並將於2025年11月1日施行。網安事件管理辦法規定中國大陸之境內建設、營運網路或透過網路提供服務的網路營運者,於發生網路安全事件時的報告程序。 網安事件管理辦法值得注意或供我國參考有二者:一、與委外廠商之契約以其協力報告義務:該辦法第5條要求網路營運者應當以契約等形式,要求網路安全、系統維運服務提供商(含個人)向網路營運者報告監測發現,並協助網路營運者依辦法報告網路安全事件。簡言之,其透過法律監管網路營運商與委外廠商之間的契約或類似契約,以及報告之協力義務。二、個人資料與網路安全的關聯性:網安事件管理辦法透過《網絡安全事件分級指南》將網路安全事件分為1.特別重大網路安全事件、2.重大網路安全事件、3.較大網路安全事件、4.一般網路安全事件,四種分級。除關鍵基礎設施的中斷運行以外,前三個事件分級將100萬人、1000萬人、1億人以上公民個人資料丢失或被竊取、篡改、假冒,認定為較大網路安全事件以上等級,使大型網路安全事件與個人資料進行連接。換言之,網路安全事件不再僅是資安面的影響,公民個人資料完整性等法律概念逐漸進入資安領域,法律專業的投入將可能是網路安全發展中需審酌的範疇。

TOP