歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。

 

  歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。

 

  該草擬意見歸結數項結論如下:
(1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。
(2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。
(3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。
(4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。

 

  由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

相關連結
※ 歐盟執委會關切奈米科技對於食品安全之影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2914&no=57&tp=1 (最後瀏覽日:2026/01/14)
引註此篇文章
你可能還會想看
新加坡個人資料保護委員會2017年7月發布資料共享指引

  新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2017年7月27日發布資料共享指引(GUIDE TO DATA SHARING),該指引協助組織遵守新加坡2012年個人資料保護法(Personal Data Protection Act 2012, PDPA),並提供組織內部和組織之間的個資共享指引,例如得否共享個資,與如何應用,以確保符合PDPA共享個資之適當方法;並得將特定資料共享而豁免PDPA規範。該指引共分為三部分,並有附件A、B。   指引的第一部分為引言,關於資料共享區分為三種類型探討: 在同一組織內或關係組織間共享 與資料中介機構共享(依契約約定資料留存與保護義務) 與一個或多個組織共享(在不同私部門間、公私部門間)   共享包含向一或多組織為利用、揭露或後續蒐集個資;而在組織內共享個人已同意利用之個資,組織還應制定內部政策,防止濫用,並避免未經授權的處理、利用與揭露;還應考慮共享的預期目的,以及共享可能產生的潛在利益與風險。若組織在未經同意的情況下共享個資,必須確保根據PDPA的相關例外或豁免之規定。   指引的第二部分則在決定共享資料前應考慮的因素: 共享目的為何?是否適當? 共享的個資類型為何?是否與預期目的相關? 在該預期目的下,匿名資料是否足以代替個資? 共享是否需要得同意?是否有例外? 即使無須同意,是否需通知共享目的? 共享是否涉及個資跨境傳輸?   上述因素還能更細緻對應到附件A所列應思考問題,附件B則有相關作業流程範例。   指引的第三部分,具體說明如何共享個資,與資料共享應注意規範,並提供具體案例參考,值得作為組織遵守新加坡個人資料保護規範與資料共享之參考依據。

法國高等教育暨研究部宣布額外投資新創企業培育計畫,強化產業競爭力與發展深度技術

為強化產業競爭力與發展深度技術,法國高等教育暨研究部(Ministère de l'enseignement supérieur et de la recherche)於2023年1月9日宣布將額外投資5億歐元,以培育更多的研究型新創企業。 基於2021年10月12日法國總統宣布的《法國2030投資計畫》(France 2030),法國政府將於五年內投入540億歐元於新創相關事務,且目前已於2022年達到成立25間獨角獸公司的中期目標。為進一步提高學研機構以研發成果衍生新創之數量,讓新創公司數量成長2倍,法國高等教育暨研究部部長Sylvie Retacleau與法國產業部(Ministre chargé de l'Industrie)部長Roland Lescure提出以下三大行動,並額外投資5億歐元執行: (1)建立25個大學創新中心(Pôles Universitaires d'Innovation, PUI):法國政府將投入1.6億歐元,在大學網站上提供創新戰略、單一治理及敏捷方法,藉此激發研發團隊潛力及創意。PUI將在不額外增設法律規範之情況下,與現有政策結合推動上述措施。 (2)透過既有措施推動深度科技:透過i-Lab、法國科技新興獎學金、深度技術發展援助計畫等現有措施,以及增設法國科技實驗室獎學金,加速深度技術發展計畫。此外,未來也將提供6500萬歐元的補助。 (3)加強推廣研究工作及專題研究計畫(Programmes et équipements prioritaires de recherché, PEPR)成果:未來法國政府將投入2.75億歐元,挑選17項研究成果,建立評估研發成果之檢測及支援能力,並依領域性質,研究各領域專利證書、標準化和相關法規。

美國產業安全局發布2024年版出口管制案例彙編,協助產學界識別違法行為

美國商務部產業安全局(Bureau of Industry and Security,下稱BIS)於2024年7月1日發布出口管制刑事與行政執法案例彙編—《別讓這些事情發生在你身上!》(Don’t Let This Happen to You)。彙編內容除介紹BIS各單位的工作目標與組織架構外,也概述主管機關的裁罰手段,包括刑事及行政裁罰、避免行為人即將發生或繼續違法出口、再出口或國內移轉所採取之限制措施(Denial of Export Privileges)、列管制清單、沒收資產等;亦提供人民救濟管道,如提早通報違法行為的自願自主揭露(Voluntary Self-Disclosures)規定等;更收錄新的執法案例。 該彙編以中國、俄羅斯、伊朗及其他地區之出口目的地為主軸,就管制理由涉及國家安全、軍事、大規模毀滅性武器等理由,分別介紹重點違法案例。提供產、學界識別違法行為時之參考。 對於2024年結案的重點案例,重點摘要如下: 1.愛沙尼亞T公司違反美國出口管制規定,非法將「座標磨床」(jig grinder)輸往俄羅斯,分別遭罰34萬美金及48萬美金。 2.英國籍F氏意圖自美國違法輸出工業微波系統(industrial microwave system)及反無人機系統(counter-drone system)至伊朗,遭判18個月有期徒刑。 3.印第安納大學(Indiana University)的布魯明頓果蠅庫存中心(Bloomington Drosophila Stock Center)向多個國家的研究機構及大學出口含有蓖麻毒素A 亞基轉基因(transgenes of the A subunit of the ricin toxin)的轉基因果蠅,而未申請出口許可,遭停止出口,並須對行政人員進行出口管制教育訓練。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP