歐盟發布綠色政綱產業計畫,提供綠色轉型、國家補助、供應鏈韌性政策

  歐盟執委會於2023年2月1日公布「綠色政綱產業計畫(Green Deal Industrial Plan)」,該計畫主要包含淨零產品產業建立、國家補助、強化供應鏈、資金等綠色轉型重要政策。「綠色政綱產業計畫」將透過以下四大支柱協助歐盟進行綠色轉型。

  (1)建立可預測、簡化且一致的管制環境

  歐盟將提出《淨零產業法(Net-Zero Industry Act)》草案簡化管制框架來支持電池、風車、熱汞、太陽能板、電解、碳捕捉等技術;本法案將分析各產業部門後,建立各部門2030年能力目標,確保產業供應鏈不會遭遇瓶頸,並縮短淨零產品工廠選址和中小企業補助核准流程時間,以及增強核准流程的可預測性。另外歐盟並將提出《關鍵原物料法(Critical Raw Material Act)》草案,以管制生產淨零產品的關鍵物資,並透過回收、來源多樣化等方式來降低歐盟對第三方國家的依賴。

  (2)更快的提供充足資金

  歐盟將放寬各會員國的補助程序,並提高補助金額上限。另外因應中國和美國對淨零產業的補助,本計畫將提高歐盟與歐盟會員國的淨零產業補助額度,讓補助效果能和其他非會員國的補助達同樣程度。

  (3)人才訓練與技術強化

  歐盟將透過人才訓練、認證和補助來增加綠色及數位轉型技術之勞動力。

  (4)為建立韌性供應鏈開放貿易

  歐盟將加強與非會員國的自由貿易協定,增加關鍵原物料來源。歐盟也將透過《外國補助規則(Regulation on Foreign Subsidies)》保護歐盟市場的公平性、調查非會員國的傾銷行為、扭曲市場的補助。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟發布綠色政綱產業計畫,提供綠色轉型、國家補助、供應鏈韌性政策, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8964&no=67&tp=1 (最後瀏覽日:2026/02/04)
引註此篇文章
你可能還會想看
美國聯邦通訊委員會發布公告重申自動簡訊發送適用電話消費者保護法

  聯邦通訊委員會(Federal Communication Commission, FCC)於2016年11月18日發布一項標題為Robotext Consumer Protection的執法諮詢文件。該文件就自動發送簡訊(Autodialed text messages,又稱robotexts)於電話消費者保護法(Telephone Consumer Protection Act of 1991, TCPA )內的適用予以釐清。   在該執法諮詢文件內,解釋TCPA法條中對於自動撥號系統定義為任何可以儲存或是產出號碼並自動撥打的設備。該法對於自動撥號系統之限制,包含通話(call)、預錄語音(prerecorded calls)及簡訊(texts),除非已取得接收方的明示同意(prior express consent),或符合下列狀況之一,方得以自動撥號系統為之: (1) 基於緊急狀況, (2) 在依循消費者隱私保護的情況下,對終端使用者為免費且獲得FCC的豁免, (3) 單純為回收對聯邦所負擔的債務、或其所保證的債務。   值得注意的是,聯邦通訊委員會針對當下網路科技發展出的訊息傳送模式做出解釋,簡訊apps、以及任何符合TCPA自動撥號定義的「網路至電話之簡訊傳送」(Internet-to-phone text messaging)等兩種情況亦納入TCPA的適用。因此,發送方主張對方已為事前同意者,應負擔舉證責任,並使消費者透過合理方式隨時取消其同意;於其主張不想再收到任何自動發送簡訊後,該發送方應立即發送一封簡訊以確認接收者的「選擇退出」要求(opt-out request)。   再者,對於已移轉的門號進行自動簡訊之發送,不論發送方是否有認知該門號換人持有,在未經該門號持有人同意的情況下,發送方至多只能對該號碼自動發送一封簡訊;如之後再度自動發送簡訊,即判定違反TCPA規範。   FCC此份文件雖從保護消費者的立場出發,但所設條件明顯苛刻,因此引發諸多爭議。此外引人注意的是,此文件發布前的一個月,ACA International v. FCC一案才於10月19日結束言詞答辯,該案爭點主要為FCC是否不當擴張適用TCPA,此案後續可用以追蹤該案聯邦法院是否肯認FCC對於TCPA的適用觀點。

歐盟執委會呼籲採取更嚴厲的手段解決垃圾郵件問題

  歐盟執委會(European Commission)日前再次呼籲歐盟各國加強處理公眾線上隱私威脅的問題。歐盟執委會所公佈的一項報告指出,雖然近年來歐盟各國皆有相關措施,例如課予垃圾郵件發布者罰款、有期徒刑等,但各國法令仍有相當大的差異。這項報告也認為,各國相關法律在歐盟電信法的改革之下,應更為明確且一致,並加強跨國合作。   歐盟執委會電信委員Viviane Reding表示,雖然歐洲的反垃圾郵件相關立法已有七年,但大部分的歐盟民眾仍受垃圾郵件影響。根據該報告,歐盟從2002年即已立法禁止發佈垃圾郵件及使用偵察軟體,但目前仍有約65%的民眾飽受垃圾郵件騷擾。   歐盟執委會的報告指出 : 目前幾乎所有會員國皆已設有相關網站,方便民眾取得垃圾郵件及偵查軟體的資訊或申訴。 在分析來自22國的140個案例後,發現各國所課予的罰款落差懸殊。罰款最高的依序為荷蘭(100萬歐元)、義大利(57萬歐元)及西班牙(3萬歐元 );但在羅馬尼亞、愛爾蘭及拉脫維亞等國,罰款的範圍則多在數百至數千歐元之間。 各級政府機關(電信主管機關、資料及消費者保護機關與執法機關等)責任劃分應更為明確,並有相互合作的機制。 垃圾郵件為全球問題,除了在歐洲境內的各國合作外,與世界各國的合作亦為重要。根據調查數據,平均每六封垃圾郵件中,就有一封是由美國境內所發出,因此目前歐盟執委會正與美國協商,討論雙方執行相關保護法規的跨境合作問題。 歐盟各國應分配足夠的資源予國內機關,以利蒐集證據、進行調查及起訴。 由歐盟執委會提出的歐盟電信法改革中,新增一條規定,要求違反各國國內線上隱私法的罰責必須為有效、實際且符合比例。

英國資料倫理與創新中心提出「議題速覽-深度偽造與視聽假訊息」報告

  英國資料倫理與創新中心(Centre for Data Ethics and Innovation, CDEI)於2019年10月發布「議題速覽-深度偽造與視聽假訊息」報告(Snapshot Paper - Deepfakes and Audiovisual Disinformation),指出深度偽造可被定義為透過先進軟體捏造特定人、主題或環境樣貌之影片或聲音等內容。除取代特定主體之臉部外,其亦具備臉部特徵重塑、臉部生成與聲音生成之功能。而隨相關技術逐漸成熟將難辨網路視聽影像之真偽,故CDEI指出有必要採取相關因應措施,包含: 一. 立法 許多國家開始討論是否透過訂立專法因應深度偽造,例如紐約州眾議院議員提出法案禁止特定能取代個人臉部數位技術之應用,美國國會亦有相關審議中草案。然而,縱有法律規範,政府仍無法輕易的辨識影片製造者,且相關立法可能抑制該技術於正當目的上之應用,並導致言論自由之侵害,故未來英國制定相關制度之制定將審慎為之。 二. 偵測 媒體鑑識方法於刑事鑑識領域已實行多年,其也可以運用於辨識深度偽造。媒體鑑識方法之一為檢查個體是否有物理上不一致之現象,以認定特定證物是否經竄改,包括拍攝過程中被拍攝對象是否眨眼,或皮膚上顏色或陰影是否閃爍。雖目前英國相關鑑識專家對於媒體鑑識方法是否可辨識深度偽造仍有疑義,惟相關單位已經著手發展相關技術。 三. 教育 教育亦為有效因應深度偽造之方法。目前許多主流媒體均開始喚起大眾對於深度偽造之意識,例如Buzzfeed於去年即點出5個方法以辨認有問題之影片。科技公司也開始投入公眾教育,提高成人網路使用者對於假訊息與深度偽造之辨識,然而報告指出其成效仍有待觀察。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP