協助中小企業因應國際綠色產品輔導措施

  自 92 年歐盟公告「廢電機及電子設備指令」( WEEE )及「電機及電子設備使用某些危害物質限制指令」( RoHS )以來,國際大廠紛紛制訂各種綠色採購標準以要求供應鏈體系符合無毒性、可回收及省能源的目標。回顧 94 年台灣電機電子產品輸歐出口值為新台幣 2,334.27 億元,影響廠商家數為 31189 家,因此這兩項指令執行之後,對台灣產業的衝擊影響甚鉅。


  為協助國內中小企業因應歐盟
RoHS 指令之執行,經濟部中小企業處自 93 年起即已開始進行相關輔導工作,解決中小企業在面對綠色採購要求所遭遇之問題,如:法規環境、客戶要求、管理制度、人力資源等,藉由綠色供應鏈輔導,提升中小企業對綠色產品的認知,塑造優質而有效率的綠色供應鏈環境,以強化中小企業綠色競爭力。


  隨著歐盟指令的推行已逐漸從資訊產品等
3C 大廠擴散到小型家電、玩具運動器材及電動工具等中小型企業規模,因此經濟部中小企業處將持續辦理輔導中小企業進入綠色材料與供應鏈體系,以及清查限用物質診斷、成立網路顧問團提供諮詢、綠色材料及供應鏈人才培訓、建立綠色供應鏈稽核訓練系統、示範觀摩及成果擴散等工作。


  綠色產品趨勢已是不可擋的潮流,隨著今年
7 1 RoHS 指令的執行,及後續 EuP REACH 等一連串綠色指令法規要求,對我國企業是一波波嚴酷的挑戰,需要政府投入更多的資源,繼續協助企業符合客戶綠色採購要求,將環保貿易障礙轉換成企業發展的新契機,開發拓展綠色產品的商機,以提升我國企業之綠色競爭力。

相關連結
※ 協助中小企業因應國際綠色產品輔導措施, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=471&no=57&tp=1 (最後瀏覽日:2026/03/26)
引註此篇文章
你可能還會想看
美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統

紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。

從「數位休閒娛樂產業」之法制需求談我國娛樂業法制規範之可能性

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

美國為加強聯邦補助生物科研之安全性而提出新規範

TOP