新德國包裝法簡介

  為有效降低包裝廢棄物對環境造成的汙染及不利影響,使製造商履行其B2C(business to customer)產品責任,德國以新的包裝法(Packaging Act, VerpackG)取代現行的規範(Packaging Ordinance,VerpackV),並已於2019年1月1日生效。

  新包裝法VerpackG不同於VerpackV之處,在於除要求業者須加入原有的回收系統外,另授權Zentrale Stelle(Stiftung Zentrale Stelle Verpackungsregister,ZSVR)基金會作為新包裝法強制登記制度的執行單位,規範欲在德國銷售產品包裝之所有實體或網路製造商及零售商,有義務於ZSVR的數據資料庫”LUCID”註冊,才能在德國地區進行銷售,並且為全面提升透明度,乃規範於LUCID註冊之商家資訊皆屬可供大眾公開查詢。

  依VerpackG規定,於2019年1月1日起未為註冊的商家,其包裝商品不能在德國上市,否則恐將臨100,000歐元之罰款;另未加入回收系統之商家,恐面臨200,000歐元之罰款。而除須註冊與回收系統的加入外,製造商及零售商尚須將以下之包裝相關資訊提供給ZSVR做比對:

(一)註冊號碼(商家於資料庫註冊時,由ZSVR所提供之註冊號碼)

(二)包裝材料及容積

(三)製造商履行生產者延伸責任(Extended Producer Responsibility)簽訂的包裝方案名稱

(四)與回收公司或回收系統間簽訂之契約期限

資料來源:自行繪製
圖 德國包裝法實施步驟

相關連結
相關附件
※ 新德國包裝法簡介, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8272&no=64&tp=1 (最後瀏覽日:2026/02/08)
引註此篇文章
你可能還會想看
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

印度為促進新創公司發展 將不予受理軟體專利申請案

  印度「專利設計與商標管理局」(Controller General of Patents, Designs and Trademarks)於2016年2月19日發佈最新的「審查電腦相關之發明專利準則」(Guidelines for Examination of Computer Related Inventions, CRIs),決定在專利申請之審查程序中落實印度於1970年所制定的專利法(Patents Act, 1970)之意旨,未來當局將不再受理與電腦相關的軟體專利申請案。印度《專利法》第3條第k項排除本質上為數學演算法、商業方法與電腦程式運算法則等申請案之可專利性(Patentable)。該規定在印度《專利法》於2002年、2004年與2005年修法過程中,雖面臨各方利益團體試圖影響國會立法放寬法定可專利性範圍的壓力,但仍然為印度國會(Bhārat kī Sansad)所保留。   然而,印度「專利設計與商標管理局」卻於2015年8月21日發佈違反《專利法》意旨的CRIs,導致軟體專利的可專利性被實質上放寬。一般認為開放申請軟體專利的政策將會阻礙新創公司的發展,並有利於所謂「專利主張實體」(Patent Assertion Entity, PAE)藉大量軟體專利向一般公司提起訴訟或請求授權金,導致印度當局遭受國內新創軟體公司與相關非政府組織的激烈抗議。   「自由軟體法律中心」(Software Freedom Law Center, SFLC)與「印度軟體產品圓桌會議」(Indian Software Product Industry Round Table, iSPIRT)等機構即代表眾多新創公司與學術界人士上書印度「總理辦公室」(Prime Minister’s Office),請求政府對2015年8月發佈的CRIs進行檢討。SFLC等組織的積極作為,成功說服印度當局作出暫緩該高度爭議的CRIs生效之決定。代表SFLC等組織的專家表示,印度的軟體已受到《著作權法》與《營業秘密法》的足夠保障,進一步開放發明人申請軟體專利只會對該國軟體產業並無助益。   印度當局與相關團體在數個月間密集的進行研議,終於在2016年2月決定修正原先發佈的CRIs,使其回歸印度《專利法》不開放軟體專利申請的立法意旨。

美國專利商標局發布「發明AI」分析報告,由美國專利申請趨勢分析AI技術普及情形

  美國專利商標局(USPTO)於2020年10月27日發布「發明AI:由美國專利觀察AI普及情形」(Inventing AI: Tracing the diffusion of artificial intelligence with U.S. patents)智財資料分析報告,本報告分析2002年至2018年共16年間美國AI專利之申請資料,發現在AI專利申請數量由3萬件成長至6萬件,成長幅度為100%,而在全體專利當中AI相關專利所占比率,也由原本的9%成長至接近16%,顯示在AI技術研發創新與普及率的顯著成長。   報告指出,自1950年圖靈(Alan Turing)提出「機器能否思考?」問題以來,現今AI技術的發展已經達到連圖靈也會讚嘆的水準,AI技術在發明領域的重要性益發提升,活躍於AI領域的發明人占全體專利權人的比率也從1976年的1%提升到2018年的25%,在組織的發明專利上也呈現相同的趨勢;除了美國銀行(Bank of America)、波音公司(Boeing)以及奇異電子(General Electric)之外,前30大頂尖的AI公司都來自資通訊領域,其中佔據首位者為擁有46,752項專利的IBM,其次為擁有22,076項專利的微軟以及10,928項專利的Google,而AI技術的應用領域也更加多元,並且與在地產業做結合,例如應用在奧勒岡州的健身訓練與設備以及北達科他州的農業上。   USPTO指出,經由專利資料分析顯示AI技術的發展不僅有顯著的成長,並逐漸與在地產業結合、落實在不同產業領域的多元應用,AI對於產業的影響力將不亞於電力或半導體,隨著AI領域發明人的顯著成長,未來將有更多AI技術在各領域的應用出現,而擴大AI影響力的關鍵在於發明者與公司能否成功將AI納入現有或新產品的功能、流程或服務之中。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP