歐盟發布與食品接觸的容器材料安全評估規則

  歐盟食品安全局(European Food Safety Authority, EFSA)於2009年5月29日發布歐盟第450/2009號規則(Regulation EC No. 450/2009),內容為評估與食品接觸的包裝容器之「活性材料」(active material)或「智慧型材料」(intelligence material),其活性與智慧型功能物質之使用安全性。此號規則規定了進行活性或智慧型材料物質的安全評估相關的行政管理,及申請所需提出的科技數據與資訊內容。

 

  歐盟第450/2009號規則是一項落實第1935/2004號規則中,有關食品安全的具體規則。第450/2009號規則要求食品容器中的「活性材料」與「智慧型材料」,必須經過EFSA的安全評估測試。

 

  歐盟於2004年10月通過第1935/2004號規則(Regulation EC No. 1935/2004),首次公佈活性材料與智慧型材料的定義。「活性材料」係指為增加食物保存期限或維持及改善情況,食品容器材料會自動釋放某些物質在食品中以延長期限。「智慧型材料」則指能顯示食物狀況或在包裝上顯示出周圍環境狀態,例如在食品包裝上,結合溫度顯示材料,指出裝運過程中的溫度狀態。

 

  而第450/2009號規則,則是進一步落實規範。在安全評估測試中,EFSA對於申請者提出的容器材料物質,進行風險測試後,將給予申請者得以使用的物質清單。若有食品容器材料的物質經測試後發現,其活性或智慧型功能的物質,與食品容器材料中的其他物質產生交互作用,EFSA可能將限制使用此類物質於食物容器材料中,以確保容器材料之安全性。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟發布與食品接觸的容器材料安全評估規則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3121&no=57&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
歐盟發佈Amazon違反反托拉斯法之初步調查結果,並將對其電商業務展開第二輪調查

  歐盟執委會於2020年11月10日對Amazon發佈反托拉斯調查之初步調查結果,針對其2019年7月之首次調查提出調查意見書(Statement of Objections, SO),認定Amazon使用大量非公開賣家資料,減少自身作為零售商之競爭風險,相關可能違反歐盟運作條約(TFEU)第102條禁止濫用市場主導地位。   歐盟於2019年7月17日對Amazon展開首次反托拉斯調查。Amazon作為平台,具有雙重身分,第一個身分是作為零售商,在網站上銷售商品;第二個身分是作為平台商,提供第三方賣家銷售商品的市場。因此歐盟認為Amazon在平台上收集價格或活動統計資料,將調查Amazon和第三方賣家的標準協議中,是否允許Amazon分析賣家的買賣統計資料?以及第三方賣家使用「黃金購物車」(Buy Box)的機制為何?   歐盟執委會調查說明,Amazon作為平台,可以大量使用第三方賣家資料,例如訂購及發貨數量、賣家收入、報價次數、物流資料、賣家表現評價、消費者索賠資訊等。然而相關統計數字及資料進入Amazon業務自動化系統,使Amazon零售業務可以大量使用上述非公開資料,以調整自身產品零售報價和業務決策,降低自身作為零售商的市場競爭風險。   此外,歐盟執委會認為,Amazon的「黃金購物車」和「Prime label」機制,使平台上的第三方賣家必須選擇使用Amazon物流、倉儲和售後服務(Fulfillment by Amazon, FBA),才能取得平台的「黃金購物車」和「Prime label」標章,才可能增加產品搜尋曝光度、交易成功率,進而提高銷售量(據統計,Amazon平台超過八成之交易是透過黃金購物車完成)。因此導致消費者大多選擇購買曝光度高、也就是使用Amazon物流的賣家,形成賣家之間的不公平競爭。歐盟執委會後續將啟動第二輪調查,且未言明結束調查時間。

Google新版桌面搜尋工具引發隱私權顧慮

  Google在2006年2月11日推出最新版的桌面搜尋工具Google Desktop 3,它的最新功能可以讓用戶同時搜尋多台電腦的資料。當啟用這項功能後,它會將電腦裡的文件和文字檔案(如Word、Excel)內容予以複製上傳到Google的伺服器上。當用戶在一台電腦搜尋資料時,也會在其他台安裝此工具的電腦自動開始搜尋。Google 表示,目前已經有很多人同時使用數台電腦,這個新功能可以讓使用者的生活更為便利。   但是倡導網路隱私權的團體Electronic Frontier基金會卻表示憂慮。由於新功能可能會讓駭客更容易盜取用戶個人資料,用戶的個人隱私將面臨更大的威脅。該基金會律師Fred von Lohmann認為,使用者應重視個人資料被放在Google伺服器上可能產生的問題,這比便利性更為重要。因為使用時若未花時間處理功能選項和設定問題,它將可能導致個人資料諸如納稅、醫藥和財物紀錄,以及其他文字檔案等資料外洩。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP