歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。

 

  歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。

 

  該草擬意見歸結數項結論如下:
(1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。
(2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。
(3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。
(4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。

 

  由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

相關連結
※ 歐盟執委會關切奈米科技對於食品安全之影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2914&no=67&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
歐盟執委會擬改革現行專利訴訟制度,並希望能減省歐洲境內中小企業營運成本

  為求能妥善管理現暨有之歐洲專利與健全歐洲共同體專利制度,歐盟執委會(Commission)正致力於尋求各成員國同意,欲滙集境內能量,來建、整出一套「單一化」專利訴訟制度(Unified Patent Litigation System;簡稱UPLS),以解決境內智財爭議與相關衍生問題,來達到『鼓勵私人發明』及『刺激歐洲境內中小型企業 (Small & Medium Enterprises;簡稱SMEs)持續成長』等目標」。   目前,就已取得歐洲專利局(European Patent Office)所核發專利之專利權人而言,其雖可逐一於歐盟各成員國家中,利用該國專利訴訟程序來保障其自身之發明;然,由於利用不同成員國家之司法系統興訟,甚可能因各類商業習慣或其他種種因素,而致生不同之審判結果;因此,於現行歐洲專利訴訟制度下,除時間與成本外,業者亦須面對司法裁判上之高度不確定性風險。一位負責國際市場暨服務事務官員Charlie McCreevy指出:「已有許多業者表示,歐洲現行之專利訴訟制度,實相當地複雜且繁瑣;且於訴訟進行過程中,除須繳納許多費用外;至取得判決前,其所耗費之時間,亦相當冗長」。   有鑑於此,執委會正擬儘快協調各會員國並統整出一套單一化之專利訴訟制度,以提升訴訟結果之可預見性(Predictability)並減輕訴訟成本。大體而言,該項UPLS制度,應可為歐洲專利權人帶來如後數項利益:(1)提升專利訴訟結果之法律上確定性、(2)減輕訴訟成本與(3)促進專利訴訟制度之商業性近用等;而一位執委會官員補充:「事實上,建置單一化專利法院與訴訟系統,其目的,無非是欲借強化解決智財爭議機制之方法,來達到『鼓勵私人發明』及『刺激歐洲境內中小型企業持續成長』等目標」。   最後,根據一份由德國慕尼黑大學學者Dietmar Harhoff所提出之分析報告顯示,倘若能透過該項措施來避免「重複專利侵害訴訟」或「訴訟撤回」等問題,估計每年將可為業者省下高達1億4千8百萬至2億8千9百萬歐元之專利訴訟費用。

歐盟正式通過資料治理法(DGA),歐盟資料共享發展跨出一大步

  歐盟理事會(Council of the European Union)於2022年5月16日正式通過了資料治理法(Data Governance Act, 簡稱DGA),本法是歐盟執委會(European Commission)於2020年11月提案,經過一年多的意見徵詢與協商,歐盟議會(European Parliament)於今(2022)年4月6日以501票贊成通過,隨後由歐盟理事會通過公布,本法預計將於2023年8月正式生效。   DGA包含幾大面向,除了針對資料中介服務(data intermediation)、資料利他主義(data altruism)、歐盟資料創新委員會(European Data Innovation Board)等機制建立的規定外,在第二章特別針對公部門所持有之特定類別資料的再利用(reuse)進行規定。當公部門持有的資料涉及第三方受特定法律保護的權利時(如涉及第三方之商業機密、智慧財產、個資等),本法規定公部門只要符合特定條件下可將此類資料提供外界申請利用;若為提供符合歐盟整體利益的服務且具有正當理由和必要性的例外情況下,得授予申請對象專有權(exclusive rights),但授權期間不得超過12個月;歐盟應以相關技術確保所提供資料之隱私和機密性。   再者,各會員國應指定現有機構或創建一個新機構擔任提供上述資料類型的單一資訊點(Single Information Point, SIP),以電子方式公開透明地提供資料清單,包含可申請利用之資料的來源及相關描述(至少包含資料格式、檔案大小、再利用的條件等),以提供中小企業、新創企業便利、可信的資料查詢管道。此外,歐盟執委會應建立一個單一近用點(Single Access Point, SAP),提供一個可搜尋公部門資料的電子登記機制(a searchable electronic register of public-sector data),讓使用者得直接搜尋各會員國單一資訊點(SIP)中所提供的資料及相關資訊。   DGA是歐盟2020年2月發布歐盟資料戰略(European Data Strategy)後的第一個立法,歐盟希望透過本法建立一套能提升資料可利用性和促進公私部門間資料共享的機制,以創造歐盟數位經濟的更高價值。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

德國聯邦政府公布人工智慧戰略,制定AI發展及跨領域應用框架

  德國聯邦政府於2018年11月15日公布聯邦政府人工智慧戰略(Strategie Künstliche Intelligenz der Bundesregierung),除了針對人工智慧一詞定義外,並概述德國人工智慧戰略的3項基本原則,14項目標和12項行動領域。   第一項原則係透過該戰略,為德國在人工智慧(AI)的發展和應用制定整體政策框架,促進德國成為人工智慧最佳研究環境,以及人工智慧在產業與中小企業之應用,以確保德國未來競爭力。第二項原則係人工智慧在社會各領域有多種應用可能性,將可明顯促進社會進步和公民利益,因此重點將強調AI的應用對於人類和環境可帶來的益處,並加強社會各界對於人工智慧主題的密集交流及討論,確保AI朝負責且共同利益為出發點的開發及應用。第三項原則將透過廣泛的社會對話和積極的政策框架,將道德,法律,文化和制度結合人工智慧之應用融入整體社會。   該戰略列舉之工作項目同時包括評量標準,包含建置德法創意網(虛擬中心)、起草國家級且持續性的教育策略、加強相關創業投資力道、針對相關新創公司提供綜合性諮詢和推廣服務、針對自願提供且符合隱私規範之共享資料與建立資料分析基礎設備者研擬獎勵及促進框架、利用風險投資、創業融資和成長科技基金計畫擴展籌資機會、建立至少12個AI應用中心、將人工智慧列為研發機構跳躍式創新的焦點,未來5年加強產學研合作項目推廣、將環境與氣候的人工智慧應用列為發展亮點、共同決策人工智慧技術的導入與應用、透過中小企業4.0中心每年至少與1000家企業建立聯繫並進行AI訓練、將AI實驗室應用情境移轉至工作場所、進一步發展人工智慧平台學習系統、設計擘劃跨領域社會科學之「未來數位化工作與社會基金」、進一步制定相關數位化轉型專家策略、建立德國人工智慧觀測站、組織以人為中心的人工智慧工作環境之歐洲和跨大西洋對話、促進具自決權,社會與文化參與性及保護公民隱私之創新應用、聯邦政府於2025年前將投資約30億歐元於人工智慧發展、開發人工智慧生態系統、培養至少100名相關領域新教授、與資料保護監督機關及商業協會召開圓桌會議。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP