二氧化碳減量 環保署建議政策環評

  環保署近日表示,一九九八年所訂二氧化碳減量標準無法達成,建議參考經濟合作暨發展組織( OECD )模式,在二二五年年平均成長率降為一%,對工業、能源和交通等有影響環境之虞的政策實施「政策環評」。但學者研究認為,及早因應比延後減量更有利。依據環保署所提出對溫室氣體減量根本問題,所牽涉的工業、能源和交通等重大政策進行政策環評,首當其衝包括蘇花高、中油八輕和台塑大煉鋼廠恐都將接受「檢驗」。


  除鋼鐵排放持續逐年增加,國內前一百大公司的溫室氣體排放量佔工業部門排放量九成,住商和運輸部門執行情況也差。尤其推動汽燃費改隨油徵收一直未落實,交通政策以大量資金投注在新道路建設,吸引更大車流,應檢討整體運輸政策。


  在策略上,應根據現有環境影響評估法第廿六條,訂定「政府政策環境影響評估作業辦法」,對國家溫室氣體減量最根本所在的工業、能源、交通政策,以及其他有影響環境之虞政策,都應實施「政策環評」,並應建立現有能源價格和徵收碳稅討論機制。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 二氧化碳減量 環保署建議政策環評, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=455&no=57&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
何謂「IoT推進聯盟( IoT推進コンソーシアム)」?

  日本政府為了對應智慧聯網(Internet of Things, IoT)、巨量資料(Big Data)以及人工智慧(AI)時代之到來,經濟產業省及總務省於2015年10月23日正式成立了產官學研聯合之「IoT推進聯盟( IoT推進コンソーシアム)」。該聯盟旨在超越企業及其產業類別的既有框架,以民間作為主導,目的為推動IoT之相關技術研發,以及促進新創事業成立之推進組織,未來並將針對IoT相關政策以對政府提出建言。在該聯盟下有三個工作小組,包括技術開發、實證、標準化的「智慧IoT推進論壇(スマートIoT推進フォーラム)」;推動先進實證事業,規制改革之「IoT推進實驗室(IoT推進ラボ)」,以及針對資訊安全、隱私保護的專門工作小組。   我國自2011年行政院首度召開「智慧聯網產業推動策略會議」以來,積極推動發展台灣成為全球智慧聯網創新中心,以及成為亞洲智慧聯網解決方案領先國;而目前我國有「台灣物聯網聯盟(TIOTA)」、「中華物聯網聯盟」等民間推進組織,旨皆為結合產官學研各界資源,促進產業與政府、國際間之合作。

內政部、經濟部發佈「新建建築物節約能源設計標準」,自七月一日施行

澳大利亞聯邦法院作出人工智慧可為專利發明人的認定

  2021年7月30日,澳大利亞聯邦法院做出一項裁定,認為人工智慧(Artificial Intelligence, AI)可作為專利申請案的發明人。   隨著人工智慧的功能不斷演進,人工智慧已經開始展現出創新能力,能獨自進行技術上的改良,此判決中的人工智慧(Device for the Autonomous Bootstrapping of Unified Sentience, DABUS)係由人工智慧專家Stephen Thaler所創建,並由DABUS自主改良出食品容器與緊急手電筒兩項技術。   Thaler以其自身為專利所有人,DABUS為專利發明人之名義,向不同國家提出專利申請,但分別遭到歐盟、美國、英國以發明人須為自然人而駁回申請,僅於南非獲得專利,此案中澳大利專利局原亦是做出駁回決定,但澳大利亞聯邦法院Beach法官日前對此作出裁示,其認為1990年澳大利亞專利法中,並未將人工智慧排除於發明人之外,且專利並不如著作權般強調作者的精神活動,專利更重視創造的過程,其認為發明人只是個代名詞,其概念應具有靈活性且可隨著時間演變,故其認為依澳大利亞專利法,人工智慧亦可作為專利發明人。   該法院的裁定雖是發回澳大利亞專利局重新審核,且澳大利亞專利局仍可上訴,因此DABUS是否能順利成為專利發明人尚有變數,但此案對於人工智慧是否可為發明人已帶來新一波的討論,值得業界留意。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP