德國2021年再生能源法修正草案最新發展

  德國的再生能源法(Renewable Act)在經歷過2014年及2016年兩次較大的修正後,今年度九月由部分上議院議員提出修正草案。

  德國再生能源法起源於20年前,當時主要重點在於提升離岸發電、太陽光電(Solar PV)及生物氣體、水力資源對於城市用電的供應率。由於現階段德國幾乎半數的城市用電仰賴上開再生能源,因此2021年度的修法上,主要導向了協助再生能源廠得以更完善的準備進入市場,包括與現有的政策發展接軌,例如2020年的國家氫能源政策(hydrogen strategy)及電動車的電價制定等。以下將列舉數項較為重大之項目:

  1. 實現2050年碳中立的目標
  2. 結合歐盟遠大的氣候目標
  3. 擴大再生能源產能
  4. 重新制定再生能源徵收稅款
  5. 提高公眾對於再生能源的接收度
  6. 於德國南方增設更多風力發電的渦輪機及生物燃料
  7. 訂定彈性電價
  8. 提升太陽能板安裝回饋酬勞
  9. 響應氫能源政策,擬使氫能源廠商於使用再生能源時得免付費(但此項提案尚待利害關係人取得共識)。

  本次再生能源法的修正提案誠然立意良善,但仍有不少批評者認為,本次修法未將日後使用再生能源的人數可能增加一事納入考量,且未將老舊風機重新供電等事納入法規中。

  而根據11月份修法決議結果,德國政府並未採納上開提案,其中主要理由是認為該草案所列之內容無法達成氣候目標(climate targets),並建議該提案應擴張再生能源產能,尤其是離岸風電及太陽能。德國能源部則認為提案中所預估的2030年電力需求過低,無法切實因應未來的需求,是以,未來德國再生能源法之修法方向仍有待持續觀察。

相關連結
※ 德國2021年再生能源法修正草案最新發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8579&no=64&tp=1 (最後瀏覽日:2025/12/09)
引註此篇文章
你可能還會想看
預付型商品之規範-以日本法為借鏡

歐盟執委會以聯合行為處罰智慧卡晶片製造商1.38億歐元

  據調查,英飛凌(Infineon)、飛利浦(Philips)、三星電子(Samsung)及瑞薩電子(在當時為日立與三菱之合資公司) (Renesas,Hitachi 及Mitsubishi)在2003年9月至2005年9月間,藉由雙邊接觸以串謀有關智慧卡晶片相關事項;歐盟執委會認為該些公司在歐洲經濟區內(EEA)有對於智慧卡晶片之聯合行為,違反歐盟反托拉斯法(Cartels)。執委會因此對其處罰138,048,000歐元。瑞薩電子因符合2006年之寬恕告知(2006 Leniency Notice)而向執委會揭發智慧卡晶片之聯合行為,故免除罰鍰,三星因配合調查而減免30%之罰鍰。   該些進行聯合行為之公司係藉由雙方接觸來往決定個別回應顧客要求降價之方式。他們討論並交換機密之商業資訊,包含價錢、客戶、契約協商、產能或產能利用率及未來之市場行為。該行為違反了禁止聯合行為和限制商業活動之歐盟運作條約(TFEU)第101條及歐盟經濟區協定第53條。   負責競爭政策之執委會副主席Joaquín Almunia說: 在這個數位時代,不管是在手機、信用卡或護照裡,幾乎每個人都在使用智慧卡晶片。製造商應藉由創新及以最佳的價格提供最好產品之方式,致力於勝過競爭對手。若製造商不這麼作,反而選擇串謀,而造成消費者利益的損失,應受到制裁。   最初,執委會希冀藉由2008年調解通告(2008 Settlement Notice)而尋求與部分公司和解之可能性。然而,基於調解協商之進展緩慢,執委會遂於2012年決定停止調解而回歸至正常程序。

國有研發設施開放近用之法制規範研析-以美日韓規定為核心

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP