歐盟執委會提出「2050低碳經濟策略規劃藍圖」

  為邁向低碳經濟時代,建立歐洲成為具競爭力之低碳經濟體,歐盟執委會(European Commission)於2011年3月8日向歐洲議會(European Parliament)提出「2050低碳經濟策略規劃(A Roadmap for Moving to a Competitive Low-Carbon Economy in 2050)」,並設定2050年低碳總目標,宣示將透過加強低碳技術研究發展、推動能源效率使用等方式,降低對石化燃料依賴,並提昇區域內更多就業機會。



  隨著近期中東與北非地區石油危機,原油價格節節高升,已嚴重影響歐洲國家每年能源支出經費,並降低未來各國經濟成長率。歐盟執委會認為,必須積極促進歐洲國家,經由投入科技研發、提昇能源效率,有效抑制不斷提昇的能源成本,推動歐盟邁向低碳經濟社會;並且,所設定目標及推動措施,倘若有所遲緩或推延,越晚投入將導致日後所需投入經費成本更為昂貴,悔不當初。「2050低碳經濟策略規劃」所設定之目標為,規劃透過各種符合成本效率(Cost-Efficient)措施及方法,推動歐盟區域內溫室氣體排放量至2030年降低40%、至2040年降低60%、至2050年降低80%(以1990年排放量為基準),達成低碳經濟願景目標。


    歐盟執委會表示,未來應強化推動低碳技術之研究發展,促進未來更廣泛運用,並強調應更全面加強推動策略性能源科技研究計畫(Strategic Energy Technology Plan , SET-Plan),未來10年內歐盟將再額外增加50 billion歐元投資,加強推動能源科技相關研發工作,及未來可供運用之工具措施。



  「2050低碳經濟策略規劃」中,詳細規劃推動步驟,並區分各大領域分別施行。以電力部門(Power Sector)領域為例,運用低碳技術、潔淨技術設備所產製電力,至2020年將達到降低45%--60%比例之排放量,到2050年,所有發電技術之溫室氣體排放量更將降低至可接近於0;而對於「工業部門」所設定目標,2050年達成降低80%之目標,對於「家庭及辦公建築」部份,設定2050年可降低90%之目標,而「運輸部門」則設定於2050年達成降低60%之目標。此外,歐盟執委會更指出投資「智慧電網(Smart Grid)」的重要性,將可促使「需求端(Demand-Side)」更具效率性,更廣泛且分散之電力調配中心,以及啟動運輸系統電力化之時代。



  低碳經濟社會所帶來福祉,並可降低歐盟每年能源支出,及對於石化燃料進口依賴程度,也促成轉變改以低碳技術產製電力能源,作為可行的替代因應方案;以及,低碳經濟社會型塑推動,除了投入經費研發技術外,相關運用更須透過教育、訓練、推廣,廣泛使大眾接受且樂於使用新興技術,如此未來將可衍生種類與數量均會更多之就業機會,也有助益於經濟成長;此外,推動低碳經濟亦可改善生活品質及健康生活,未來實際效應可改善公共健康、減少醫療費用支出、及降低對生態環境消耗破壞,均屬良善效益。



  然而,歐盟執委會這些推動措施,亦傳出有反對聲音。「歐洲商業(Business Europe)」團體就對外表示,他們反對「2050低碳經濟策略規劃」所設定的這些超高標準,他們認為相關推動措施,未來將會嚴重傷害歐盟境內企業發展,因為主要競爭者如中國、日本及美國,相較而言,均未設定這麼高的推動目標。未來歐盟執委會這些規劃藍圖是否落實達成,值得後續觀察。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟執委會提出「2050低碳經濟策略規劃藍圖」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5429&no=67&tp=1 (最後瀏覽日:2026/02/25)
引註此篇文章
你可能還會想看
歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

芬蘭財政部通過《虛擬貨幣供應商法》,以防制洗錢及資恐行為

  近來虛擬貨幣已成為國際洗錢犯罪工具,為有效防制洗錢及打擊資助恐怖主義行為,芬蘭財政部(Ministry of Finance)宣布通過虛擬貨幣供應商法(The Act on virtual currency providers),於2019年5月1日生效,立法目的係為了將虛擬貨幣供應商納入洗錢防制監管範圍,並由芬蘭金融監管局(Financial Supervisory Authority, FIN-FSA)擔任虛擬貨幣供應商之註冊機構及監管機構。   根據該法案,虛擬貨幣交易所、託管錢包供應商及虛擬貨幣發行者皆須向芬蘭金融監管局進行註冊,以確保遵守相關法規要求,包括:(1)供應商應具可靠性;(2)保存和保護客戶資金;(3)須將客戶資金與自有資金隔離;(4)服務行銷規則;(5)遵守防制洗錢與打擊資助恐怖主義(AML / CFT)規定。虛擬貨幣供應商須符合法規要求才能在芬蘭營運,若未符合法規,將被禁止其業務活動,並依規定科以罰金。   另外,該法案之基本框架,是以2018年5月歐盟宣布通過之「第五號洗錢防制指令」(the Fifth Anti-Money Laundering Directive)為基礎,該指令要求所有歐盟成員國必須於2020年1月10日前,將虛擬貨幣相關服務納入國內AML / CFT監管框架中,以降低洗錢和恐怖主義融資風險。然而,芬蘭金融監管局表示,虛擬貨幣交易風險高,儘管制訂新法案,投資者保護問題仍無法完全解決,呼籲投資者仍須注意虛擬貨幣相關服務所涉及之風險,應謹慎為之。

新加坡科學家研究出奈米載體有效送藥抗癌

  新加坡科學家研究出新的抗癌方法,新加坡生物工程與奈米科技研究院宣佈,研究出智慧奈米載體,可以攜帶抗癌藥物準確送入癌細胞裏,有效地把癌細胞殺死,減少副作用。    星國科技研究局生物工程與奈米科技研究院宣佈,研究出以聚合物製成的智慧奈米載體,大小少過二百奈米,也就是大約頭髮直徑的五百分之一,這種微粒載體內部中空,可以裝載抗癌藥物,而載體的外殼可以保護藥物免受消化液消化掉,在一般環境裏結構穩定,解決過去載體結構不穩定的問題。    領導這項研究的科學家楊義燕博士表示,這種奈米載體可用酸鹼度和溫度變化來控制,當微粒載體碰到成低酸度的癌細胞組織和細胞質時,就會沈澱變形,同時釋放出內部的藥物分子殺死癌細胞。過去也有科學家研究出類似的微粒載體,但必須由體外透過溫度變化來控制微粒在體內的行進,控制不易;這次研究的載體,只要靠酸鹼度變化就可以把抗癌藥物帶到深層組織或細胞群,控制容易。    載體釋放藥物的過程:當智慧奈米載體遇到癌細胞組織,會附在癌細胞組織表面,同時載體外部也附上生物訊號,能夠協助載體辨識和深入癌細胞內部,當癌細胞吸收了載體後,載體反過來吸收癌細胞內的質子,並把藥物分子釋放到細胞質和細胞核裏。    研究團隊在進行老鼠乳癌細胞臨床實驗顯示,透過智慧奈米載體把用來治療白血病和各種癌症的阿黴素送到癌細胞內,有效抑制腫瘤生長,卻不會產生對正常細胞的毒害作用及副作用。

日本經產省發布中小企業開發IoT機器之產品資安對策指引

日本經濟產業省(下稱經產省)於2023年6月6日發布中小企業開發IoT機器之產品資安對策指引(IoT機器を開発する中小企業向け製品セキュリティ対策ガイド),本指引彙整企業應該優先推動IoT機器資安對策,經產省提出具體資安對策如下: 1.制定產品資安政策(セキュリティポリシー)並廣為宣導:由企業經營者率先制定資安政策,進行教育宣導,並依實際需求修正調整。 2.建立適當的資安政策體制:確立實施資安政策必要之人員及組織,明確其職務及責任。 3.指定IoT機器應遵守之資安事項,並預測風險:決定IoT機器的預設使用者及使用案例,並於釐清使用者需求後,指定IoT機器應遵守之資安事項,預測衍生風險。 4.考量IoT機器應遵守之資安事項及預測風險,進行設計與開發:以預設IoT機器應遵守之資安事項衍生風險為基礎,從設計與開發階段開始採取風險對策。 5.檢測是否符合資安相關要件:從設計與開發階段開始制定檢測計畫,檢測是否符合資安要件,並依據檢測結果進行改善。 6.於產品出貨後蒐集風險資訊,與相關人員溝通並適時提供支援:蒐集全球資安事故與漏洞資訊,並設置可適時與委外廠商以及用戶溝通之窗口。

TOP