達成京都議定書減量目標 提昇能源效率比課碳稅衝擊小

 

 

  因應京都議定書,經濟部日前引用學界研究報告發現,我國若依議定書原則達成溫室氣體減量目標,總計需投入經費達五八七八億元至八七○八億元。為達成這項目標,政府採取提升能源效率的作法,比直接課徵碳稅,對國內經濟衝擊力道較小。


  根據國際能源總署公布資料顯示,台灣CO2排放總量達二億一七三○萬公噸,人均排放量達九.八公噸,皆高於全球平均值,每單位CO2排放所創造的GDP為一.八九(美元/公斤CO2)也較OECD等先進國家平均值低。


  經濟部內部歸納CO2減量效果不佳的原因,除政策上採非強制處理態度外,過去十年間,石化、鋼鐵等高耗能產業結構調整緩慢,加上半導體及液晶面板等大量使用全氟化物、六氟化硫的產業訊速成長,使得工業製程中排放的CO2等溫室氣體大幅成長更是主要原因。


  依京都議定書條約精神及國際環保現況,我國與南韓同屬網要公約非附件一成員中的「新興工業國」,成為公約下一階段管制對象。致使抑制國內激增溫室氣體排放量已成為我國政府迫切須處理的課題。


  在經濟部這份內部研究報告中,也引用臺灣大學農業經濟系教授徐世勳等學者的研究推估,如果台灣要達到京都議定書的要求,將CO2排放量控制在一九九○年水準,則減量成本將達新台幣五八七八億元至八七○八億元。


  而學界的這項研究也針對開徵碳稅稅率不同對台灣經濟影響進行評估,推估當對每公噸CO2排放課徵六○○元碳稅時,對經濟成長衝擊為負○.六%,調高至七五○元時,所造成的衝擊則更達負○.七一%。

 

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 達成京都議定書減量目標 提昇能源效率比課碳稅衝擊小, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=262&no=55&tp=1 (最後瀏覽日:2026/04/09)
引註此篇文章
你可能還會想看
巴西基因改造科技管理法制簡介

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

OASIS網路標準服務遭抵制

  開放原始碼及自由軟體的大老等發起一封抵制網路服務標準機構OASIS新專利政策的活動,並簽署了一份電子郵件,呼籲社群不要採用由OASIS標準組織所通過的規格。OASIS本月修改了它的專利政策,宣稱為開放原始碼軟體的開發提供了更好的選擇。   這份電子郵件中表示,不要採用OASIS的不開放標準。要求OASIS修改它的政策。如果你是OASIS成員,對於這種窒礙難行,不能用在開放原始碼及自由軟體上的標準,不要參與其工作小組。支持者亦表示,希望類似OASIS這樣的組織能訂出明確政策,好讓所有想採用業界標準的組織可以預先知道未來是否會被收費。   然而,OASIS為自己的政策修改提出辯護,也對這個活動加以反擊。其表示,OASIS這個政策和W3C的政策一樣,都要求必須免權利金才行。且其政策規定,業界標準可以加入專利技術,但必須對外公佈此事才行。而且幾乎在所有的案例裡,這倒頭來都會變成免專利金。   OASIS所修改的政策為標準工作提出了三種模式:RAND(reasonable and nondiscriminatory licensing,合理且統一的授權);RAND條件下的RF(免權利金);或者是有條件下的RF。   對於OASIS的杯葛,反應出產業在IP權利上的利益,以及開放原始碼和自由軟體支持者間的爭執。OASIS的新政策預計要在4月15日生效,原本是要展示對開放原始碼擁護者的妥協。但是,這份電子郵件簽署活動,顯示出新政策依然難已被接受。

TOP