英國資源與廢棄物策略

  英國環境食品與鄉村事務部於2018年12月18日提出「英國資源與廢棄物策略」(Resources and waste strategy for England),以全面性的角度提出英國對資源與廢棄物的處理政策,包含如何最有效利用資源與最小化廢棄物的產出,追求在2050年達到加倍資源生產力,並禁絕包含塑膠廢棄物在內之可避免廢棄物產生,作為英國推動循環經濟的政策藍圖。

  這份政策文件可以區分為三大部分,第一部分為產品的生命週期,包含從製造、消費到生命週期的完結;第二部分為主要議題,聚焦在論證環境犯罪(waste crime)與食物浪費(food waste)此兩大議題並不適用於前述的產品生命週期;並且在第三部分的未來展望上,提出三大面向突破傳統的產品生命週期觀點,包含國際領導(international leadership)、研究創新(research & innovation)與監管措施(data, monitoring and evaluation),建立起資源與產品生命週期的循環,以達到追求最大化資源利用效益與最小化廢棄物產生的目標。

  在政策文件當中特別呼應了歐盟塑膠對策(EU Plastic Strategy),強調在英國針對塑膠議題提出的2025指引(The UK Plastics Pact – A Roadmap to 2025)當中,目標在2025年達到消滅無法處理或一次性使用之塑膠廢棄物,使用100%可再利用、回收或可分解之塑膠包材,達成70%的塑膠包材可回收或分解效率,並於塑膠包材中使用30%以上的可再生原料。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 英國資源與廢棄物策略, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8188&no=64&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
德國聯邦參議院通過保護數位世界隱私之《電信與電子媒體資料與隱私保護法》

  德國聯邦參議院於2021年5月28日通過《電信與電子媒體資料與隱私保護法》(Gesetz zur Regelung des Datenschutzes und des Schutzes der Privatsphäre in der Telekommunikation und bei Telemedien, TTDSG),其目的係保護數位世界中的資料與隱私,平衡數位服務使用者利益與公司經濟利益,並解決因德國電信法(Telekommunikationsgesetz, TKG)、電信媒體法(Telemediengesetz, TMG)與歐盟一般資料保護規則(General Data Protection Regulation, GDPR)同時並行,使消費者、電信服務提供者以及監管機關不確定如何適用上開法律之情況。   TTDSG彙集TKG、TMG中資料與隱私保護相關之條文,包含電信保密(Fernmeldegeheimnis)(第3條至第8條)、交通位置資料(第9條至第13條)、來電通知與號碼顯示(第14條至第16條)、終端使用者名錄和相關資料提供(第17條至第18條),以及允許匿名化、可隨時停止使用服務和保護未成年之相關措施(第19條至第23條),並參考GDPR和電子隱私保護指令(ePrivacy-Richtlinie)新增數位遺產(digitaler Nachlass)、終端設備隱私保護、同意管理以及監管之規定。   TTDSG於第4條新增數位遺產規定,終端使用者繼承人或具有相似法律地位者,可以向供應商行使繼承人權利,不受電信保密相關規定限制;在終端設備隱私保護和同意管理之部分,TTDSG第24條規定原則上第三方僅能在終端使用者同意下,於使用者的終端設備中儲存與近用資料,且當事人可隨時撤銷同意。   最後在監管方面,則分為個人資料保護相關與電信媒體領域,前者依TTDSG第28條、第29條由德國聯邦資料保護與資訊自由委員會(Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, BfDI)作為獨立的資料保護監管機構,後者則依TDSG第30條屬德國聯邦網路局(Bundesnetzagentur)的職權範圍。

日本立憲民主黨提出SDGs基本法案,以達成2030永續發展目標

日本立憲民主黨於2023年6月13日向眾議院提出「SDGs基本法案」(持続可能な開発の目標の達成に向けた諸施策の総合的かつ一体的な推進に関する法律案),旨在達成2015年聯合國大會通過之「2030永續發展目標(SDGs)」。 去年6月立憲民主黨曾向參議院提出相關法案,但未審議就被廢止,此次係因日本政府針對SDGs雖有列舉相關議題,惟未對每個目標和達成度進行評估,僅是羅列先前政策,故立憲民主黨擔憂日本無法於2030年實現永續發展目標,重新向眾議院提出SDGs基本法案,希冀透過制定基本方針及必要事項,課予政府實施相關政策,法案主要內容摘要如下: 一、 提出基本原則要求政府應提供國民、經營者、民間團體等構成社會之多元主體,都能參與實現永續發展目標之機會,並應平等對待處於弱勢地位者保障其基本人權,使其受到尊重、充分發揮其個性及能力。 二、 另因永續發展目標與國際相互間有密切關聯,政府應確保國際合作,使目標一體化。 三、 除課予國家、地方自治體應提出SDGs基本方針外,亦要求地方公共團體、企業,在開展各項目活動時,應努力且有責任地一同促進實現永續發展目標。 四、 為實現目標,要求政府須採取必要法制、財政、稅制等措施,政策之內容亦應反映多種民意、確保公正性、透明性,且每年都要向國會提出施政成果及評估報告。 五、 設置「永續發展目標推進本部」(持続可能な開発目標達成推進本部),並邀請專家、利害關係人召開「永續發展目標推進會議」(持続可能な開発目標達成推進会議),一同評估基本方針政策及其達成狀況。 六、 由於實現永續發展目標並不因2030年後任務即刻終止,關於2031年以後之政策,政府應考量社會措施、國際動向等,依評估結果再採取必要之措施。 針對SDGs基本法眾議院已於10月20日交由委員會審議中,是否通過該法案仍待後續觀測,但已展現日本推動SDGs之決意。我國雖非聯合國之會員國,惟於2016年亦自願性回應全球永續發展行動與國際接軌,並於2021年成立「行政院國家永續發展委員會」,力求實現永續發展目標;然而僅靠政府機關的努力恐怕力有未逮,可參考日本作法納入國民、民間團體、企業等多元參與者,攜手合作共同實現SDGs。

美國聯邦航空總署公布《無人機遠端識別最終規則》

  美國聯邦航空總署(Federal Aviation Administraiton, FAA)於2020年12月28日公布「無人機遠端識別最終規則(Final Rule on Remote Identification of Unmanned Aircraft)」,針對250克以上無人機的遠端身分識別操作規則進行規範: (1)標準配備有遠端識別的無人機:   無人機需透過wifi或藍芽等技術廣播(broadcast)其遠端識別資訊,包含無人機ID,即無人機序號(serial number)或交談識別碼(session ID);無人機的速度、經緯度和海拔高度;控制站的經緯度和海拔高度;緊急狀況的狀態和時間戳記(time mark)。該規則要求無人機廣播範圍內大多數的個人無線裝置(wireless device)都可取得無人機的遠端識別訊息,但序號、交談識別碼以及註冊資料庫僅限FAA和被授權人員可於特定情況下取得。 (2)額外加裝遠端識別廣播模組的無人機:   廣播模組可能為與無人機連線的獨立裝置,或以加裝於無人機內部的形式存在,此類無人機必須於視距內操作,並透過wifi或藍芽等技術廣播其遠端識別資訊,包含模組的序號;無人機的速度、經緯度和海拔高度;起飛地點的經緯度、海拔高度和時間戳記。 (3)於FAA認可之識別區域(FAA-Recognized Identification Areas, FRIA)中飛行:   在FRIA區域中,無人機可不具備遠端識別飛行,但無人機操作需處於視距內與FRIA區域界線內。   該最終規則已送至美國聯邦公報辦公室(Office of the Federal Register),且會在公告後60天生效,預計於2021年1月公告。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP