歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。

 

  歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。

 

  該草擬意見歸結數項結論如下:
(1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。
(2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。
(3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。
(4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。

 

  由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

相關連結
※ 歐盟執委會關切奈米科技對於食品安全之影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2914&no=57&tp=1 (最後瀏覽日:2026/01/12)
引註此篇文章
你可能還會想看
我國電子公文法制的最新發展

美國專利商標局(USPTO)針對「第三人先前技術意見書(Preissuance Submissions)提呈制度」發布最終規則

  USPTO日前針對「第三人先前技術意見書提呈制度」,於7月17日發布最終規則( Final Rules)。此項規則的頒佈,主要是因應2011年9月「Leahy-Smith 美國發明法案」(Leahy-Smith America Invents Act,簡稱AIA)的修法,所為的配套措施。     所謂「第三人先前技術意見書提呈制度」是指:賦予第三人權利,得於專利審查程序中提供專利審查員相關先前技術文獻,作為審查核駁之參考。美國在2011年討論AIA修法之際,大多肯定此制度可提升專利審查之品質,因而修法放寬了第三人可提呈的文獻類型、期限。而本次USPTO發布的最終規則,便以此修正為背景,進一步具體說明相關程序適用規則,主要包括:     (1)可提呈的文獻包含專利案、已公開的專利申請案、及其他與審查核駁相關並已公開之文獻;但不包含法院機密文件、商業機密文件及其他內部未公開之訊息;(2)第三人得利用USPTO現有的電子申請系統(EFS-Web)申請;(3)第三人得保持匿名,例如透過律師提呈文獻;(4)縱使USPTO駁回其申請,第三人仍可在法定期限內重新提交新的申請;(5)提呈之文獻如為外文文獻,第三人須提供英文翻譯本。     如同2011年修訂通過的「Leahy-Smith 美國發明法案」,此次USPTO所頒布的最終規則亦將於2012年9月16日起施行。預計將擴大第三人提呈先前技術意見書之比例,但對於專利申請人將造成甚麼影響,值得持續觀察。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

布拉格提案(The Prague Proposals)

  2019年5月3日,來自全球30多國的政府官員與來自歐盟、北大西洋公約組織的代表於捷克布拉格所舉辦的5G資安會議(Prague 5G Security Conference)中,強調各國建構與管理5G基礎建設時應考慮國家安全、經濟與商業發展等因素,特別是供應鏈的安全性,例如易受第三國影響之供應商所帶來的潛在風險,本會議結論經主辦國捷克政府彙整為布拉格提案(The Prague Proposals),作為提供世界各國建構5G基礎建設之資安建議。   在這份文件中首先肯認通訊網路在數位化與全球化時代的重要性,而5G網路將是打造未來數位世界的重要基礎,5G資安將與國家安全、經濟安全或其他國家利益,甚至與全球穩定等議題高度相關;因此應理解5G資安並非僅是技術議題,而包含技術性與非技術性之風險,國家應確保整體性資安並落實資安風險評估等,而其中最關鍵者,則為強調確保5G基礎建設的供應鏈安全。   因此在布拉格提案中強調各國建構通訊網路基礎建設,應採用國際資安標準評估其資安風險,特別是受第三國影響之供應商背後所潛藏之風險,並應重視5G技術變革例如邊緣運算所產生的新風險態樣;此外對於接受國家補貼之5G供應商,其補貼應符合公平競爭原則等。布拉格提案對於各國並無法律上拘束力,但甫提出即獲得美國的大力肯定與支持。

TOP