荷蘭智庫提出發展永續性生質燃料的政策建議

  面對解決氣候變遷及尋找替代石化能源的全球性問題,生質材料(biomass)的開發與利用深受期待,然而,生質材料的生產與利用是否適當,乃是複雜的決策工具,一國政府在推動與能源、溫室氣體減量有關之政策工具時,必須意識到這些政策工具背後所蘊藏之其他風險。

 

  在面對生質材料的風險,荷蘭政府可謂最先有此問題意識,並嘗試在提出政策工具時盡可能作妥適規劃的先進國家之一。荷蘭是歐洲最大的棕櫚油進口國,以棕櫚油製成的產品在荷蘭超市到處可見,部分棕櫚油也用於能源供應,荷蘭甚至有業者打算興建專門使用棕櫚油運轉的電力供應站(power stations)。

 

  為確保利用棕櫚油及其他生質材料所開發新能源符合環境永續經營的目的,荷蘭政府已研議在相關的政策措施中,導入生質材料應符合永續性的標準;而為落實此一政策構想,荷蘭政府委託智庫Cramer Commission(該委員會以其主席Jacqueline Cramer的姓為名,Cramer女士更在2007年2月成為荷蘭環境部長)進行相關研究。Cramer Commission在今年4月向荷蘭政府正式提出「檢測生質材料是否符合永續性之架構報告」(Testing Framework Report for Sustainable Biomass),報告中提出發展生質燃料可能涉及的六大永續性議題分別:溫室氣體排放、與食物及其他運用領域之衝突、生物多樣性、環境、經濟繁榮、社會福祉;報告除針對此六大議題分別提出永續性思考外,並建議透過追蹤系統(track-and-trace system)對作物從種植到成為電廠生產生質燃料的整個過程予以監控,並對生質燃料公布嚴格的進口標準,作為生質燃料的作物,其栽種方式必須經認證是不破壞環境,或所釋出的溫室氣體比節省得多,始得進口。Cramer Commission並建議荷蘭政府設定在2020年前進口永續來源的生質材料,並建議在此之前應有過渡措施。

 

  關於生質燃料的環境風險問題,目前在歐盟已開始有問題意識,歐盟也嘗試思考是否可能藉由綠色認證制度之建立,確保非以永續方式製造的生質燃料,不得進入歐盟市場;其他打算跟進的歐洲國家,則正在觀察荷蘭的作法。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 荷蘭智庫提出發展永續性生質燃料的政策建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2346&no=67&tp=1 (最後瀏覽日:2026/05/13)
引註此篇文章
你可能還會想看
Golan v. Holder: 美國高等法院確認公共領域之外國著作可取得著作權保護

  美國高等法院於2012年1月18日對Golan v. Holder案做出裁定,確認維持將目前在公共領域的外國著作納入著作權保護的聯邦法。Golan v. Holder案之主要爭點為,美國國會於1994年為符合伯恩公約及WTO「與貿易有關智慧財產權協定(TRIPS)」的規定,決議通過讓之前無法在美國取得著作權保護的外國著作可以回溯取得美國著作權,一夕之間近上百萬件於1923年至1989年之間在國外發表的著作在美國不再屬於公共領域,包括了許多經典的電影,名畫及交響樂等,這個法案引起了許多樂團指揮家、表演者、老師、電影檔案保管者及電影發行商等人士的不滿,因為他們將無法像之前一樣無限制的使用這些著作。   美國聯邦地區法院於2009年曾判定認為恢復屬於公共領域的外國著作的著作權違反了保障言論自由的美國憲法增修條文第一條,但高等法院以6:2的多數意見認為,恢復公共領域的外國著作的著作權保護並不違反憲法修文第一條及憲法下的著作權條款。身為著作權擁有者,這個裁定對電影與音樂業者可以說是場勝戰,但對Google建立電子圖書館的計畫則將是個挑戰,Google表示這將使他們無法把近一千五百萬冊書籍的內容公開在網路上提供,並且也會影響到他們已完成電子化的上百萬冊書籍的使用。

歐盟要求自4月15日起,進口至歐盟的中國米類產品應檢附非基改證明

  根據歐盟GMO食品上市規則,唯有通過歐盟EFSA的安全評估並經歐盟審查通過發給上市許可的GMO,始得於歐盟境內流通上市。   過去兩年,歐盟陸續發現其自中國進口的米類產品,被未經許可的基改稻米Bt 63污染,對歐盟的食品安全產生重大疑慮,因而引起歐盟官方及消費大眾的高度關注。為此,中國主管當局雖已請求歐盟提供有關此非法GMO之基因構成(genetic constructs)的詳細資訊,並針對歐盟會員國通報至Rapid Alert System for Food and Feed(RASFF)的案件,開始進行調查並暫時禁止相關業者出口米製品,不過中國迄今未能依歐盟要求,提供其在實施出口管理時的控制樣品,以及其所使用的檢測方法與歐盟所要求者,具有相同品質之證明。   因此,歐盟已在今(2008)年2月通過一項緊急措施的決定,要求自4月15日起,進口至歐盟的中國米類產品應檢附非基改證明(GMO-free certification),且此非基改證明應由歐盟官方所設立或認可之實驗室,使用特定的GMO檢測技術檢測後,檢測結果發現未含有GMO成分時,始能核發非基改證明。   雖然歐盟並非我國農產品的主要外銷國家,但歐盟此項緊急措施仍值得我國注意,蓋我國當前GMO的進出口管理法制與先進各國尚有所落差,而我國最主要的農產品出口國—日本,其GMO管理法律中亦有授權主管機關對進口產品實施生物檢查(即是否含有GMO的檢測)的規定,倘若我國在發展GMO時,未能妥善落實GMO的管理,不無可能對非基改產品造成重大衝擊,當前歐盟要求中國出口的米類產品應檢附非基改證明,即是一例。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP