因應綠色採購 環保標章實驗室認證問題有待解決

  近年來,國際企業強調「綠色商機」,綠色競爭力更成為台灣企業進軍國際市場的指標之一。政府配合綠色風潮,鼓勵國內綠色生產及綠色消費,在政府採購法增列綠色採購條款,並通過「機關優先採購環境保護產品辦法」。然而這些美意,卻可能因為環保標章實驗室認證問題,大打折扣。


  造成上述結果的主要原因是,我國因相關環保法令不周全,環保管理、監督單位權責不一,形成三不管局面,影響廠商競爭力。舉例而言,現在環保署嚴格把關環保標章實驗室,檢查近
20 家實驗室,最後只認定三家有合格檢測能力,廠商要取得環保標章,一定要找這三家業者,形成供需嚴重失衡局面,廠商耗時、浪費金錢,還是拿不到環保標章。


  另外,環保標章實驗室的管理單位,應該是環保署還是經濟部標準檢驗局;發生爭議事件,環保署和標準局各有說詞。環保標章是環保署核發,但實驗室檢測、管理則由標檢局負責,故而出現三不管的局面。



  今年
7 1 ,歐盟全面執行 RoHS (無鉛製程)環保措施,明年,歐盟開始執行 WEEE (廢棄電機電子產品回收)環保措施,由於台灣資訊大廠 98% 為出口導向,這兩個規定使我國資訊廠商不得不審慎因應之,然而, RoHS WEEE 僅是一個開端,未來歐盟一旦通過 REACH 規則,因環保要求而受影響的產業將更多,可見環保標章實驗室認證問題,必須嚴格看待並儘速解決。

※ 因應綠色採購 環保標章實驗室認證問題有待解決, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=476&no=55&tp=1 (最後瀏覽日:2025/12/07)
引註此篇文章
你可能還會想看
奈米產業民間導引規範先行-以美國推動奈米保險機制及自願性計畫法制為例

加拿大公布新的企業個資保護自評工具

  加拿大聯邦政府與亞伯達省(Alberta)及英屬哥倫比亞省(British Columbia)的隱私委員會針對一般企業,聯合推出新的個人資料保護自我評量線上工具,該線上工具之內容包括風險管理、政策、記錄管理、人力資源安全、物理安全、系統安全、網路安全、無線、資料庫安全、作業系統、電子郵件和傳真安全、資料完整性和保護、存取控制、信息系統獲取,開發和維護、事件管理、業務連續性規劃、承諾等項目之評估測驗。   聯合制定該線上自我評量工具的隱私委員辦公室表示,該線上工具可用於任何私人組織,特別是小型及中小型企業,而且新的線上工具是針對企業為一全面性的評估,並且該評估的內容十分鉅細靡遺。另外,為了提供使用者於使用該線上工具時的靈活性,故使用者亦可以將重點放在最切合自己的企業的部分,亦即僅選擇其中一項或數項為自我評估的內容即可。   又,該線上自我評量工具會將使用者的自我評估和分析過程的結果做成結論,而使用者可以獲得該分析得出之結論,並將作成之結論用來有系統地為評估組織本身的個人資料保護安全性,並藉以提高個人資料保護的安全。

英國提出巨量資料下之個人資料保護應遵循資料保護法之原則

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP