FDA對於食品製程中應用奈米科技者發布產業指引草案

  FDA於今年(2012年)4月12日分別發布了兩項有關於評估應用奈米科技於化妝品及食物影響之產業指引草案(draft guidance)。其中就奈米科技應用於食品(以下簡稱奈米食品)之影響,FDA於「產業指引草案:評估包括使用新興科技在內之重要製程,改變對食品原料、與食品接觸物質及食品色素安全性及法規狀態之影響」(Draft Guidance for Industry: Assessing the Effects of Significant Manufacturing Process Changes, Including Emerging Technologies, on the Safety and Regulatory Status of Food Ingredients and Food Contact Substances, Including Food Ingredients that are Color Additives,以下簡稱新興科技衍生食品產業指引草案)中,對於食品製造商應採取哪些步驟以證明使用奈米科技之食品及食品包裝之安全性,有較為具體之說明。

 

  於新興科技衍生食品產業指引草案中,明確表示奈米科技為此文件之涵蓋範圍,惟其聲明將奈米科技納入文件並不代表FDA認定所有內含奈米物質之產品皆屬有害,僅說明FDA認為依據奈米食品之特性,應進行特別的安全性評估以確保安全。文件中也強調,FDA對於食品製程中應用奈米科技所作之考量,與應用其他科技於食品製程者無異,並認為應用奈米科技所產出之最終產品,在原定用途之使用下,其特性及安全性與傳統製程產出者相同。

 

  針對奈米食品之安全性評估,新興科技產業指引草案中指出,應就該食品所使用物質於奈米尺寸下之特性為其判斷基礎,而有可能必須進一步檢驗此等特性之影響,例如該物質對於生物可利用率及其於器官間運輸之影響等。此外,文件中亦提及FDA於過去針對食品添加物、色素及與食物接觸物質之化學及技術數據所作成之產業指引,於此應同樣被遵守,而將奈米食品所涉及與安全性相關之文件提供給主管機關。而FDA也將持續地向產業提供諮詢服務,以確保產品之安全性。

 

  由FDA所發布之相關產業指引觀察,縱使FDA仍秉持美國對於奈米科技不具危害性之基本立場,其仍透過強化安全評估之科學工具及方法,以審慎之態度來取得大眾對於此類產品安全之信任。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ FDA對於食品製程中應用奈米科技者發布產業指引草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5725&no=55&tp=1 (最後瀏覽日:2026/03/24)
引註此篇文章
你可能還會想看
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

日本經產省提出創新政策落實方向

由於日本近年研發品質、數量停滯不前,加上企業研發效率亦落後於外國,經濟產業省(簡稱經產省)於2024年6月21日從三個面向提出政策建議,期能打造成功創新模式。重點如下: 1.發揮新創企業與大企業優勢,促進研發投資 由於研發投資具有回收期間長、獲利不確定等特徵,短時內難以看到成效,故為鼓勵企業持續投入研發,經產省擬制定研發投資效率評價指標,並將透過「新創培育五年計畫」(「スタートアップ育成5カ年計画)下之「新創推動框架」(スタートアップ推進枠),將科研預算優先分配予重點項目,以建立友善研發環境。 2.透過新創資源流動,促進商業化和創造附加價值 新創企業初期往往受限於人力、技術和設備等資源不足問題,難以快速成長及擴張。為解決上述問題,經產省擬制定「跨領域學習」指引及案例集,期能促進新創資源流動,打造創新生態系統。 3.以需求為導向之前瞻技術研發 部份具有高度發展潛力之前瞻技術,如量子和核融合等,因研發風險較高且市場需求不明,將由新能源‧產業技術綜合開發機構(新エネルギー・産業技術総合開発機構)、產業技術綜合研究所(產業技術綜合研究所)等法人進行研發。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

臉書改名Meta,宣告元宇宙的時代來臨

  Facebook宣布改名為「Meta」,決心投入巨額資金發展虛擬實境並研發相關app提供用戶社交會面和辦公場所,藉此定位自己為元宇宙(Metaverse)公司。臉書創辦人Mark Zuckerberg在今(2021)年10月28日宣告將「Facebook」改名為「Meta」的公開信中提及,在元宇宙中,您幾乎能做到所有能想像到的事情,與朋友和家人聚會、工作、學習、購物等行為。   元宇宙這名詞是如此新穎,以至於沒有一個被普遍接受的定義。它被認為是網路的未來。由臉書創辦人上述的公開信可以得知,元宇宙是個讓使用者能身歷其境且包羅萬象的世界,將超脫電玩與娛樂而進入工作和商業的領域。現實生活中一切的行為幾乎都可以在元宇宙中進行,也因此,現實世界的法律問題,也可能發生在元宇宙中,進而影響法律秩序。   隨著區塊鏈和加密貨幣這類科技被廣泛採用,在元宇宙或Web3.0這樣的虛擬空間經營公司、買賣持有商品將順勢發展而來。財產的標記化(tokenization)也意味著任何實體或虛擬物的所有權可以被認證,也在無法竄改的帳本擁有權限碼,使得虛擬世界的交易更可靠。   非同質化代幣(Non-Fungible Tokens,下稱NFTs)是近來彰顯所有權的新興表現方式,這將會在元宇宙的經濟體系中扮演重要角色。所有因契約、租約而來的財產將被標記化,使人們有可能在Opensea這樣的平台購買數位土地、數位房產或者任何其他的數位虛擬物品,且一樣能證明所有權。可以說,數位財產標記化將對法律業產生最大影響。元宇宙將很有可能發展出一個數位城市,使消費者們能在數位世界購買土地,在土地上面建造房屋且將透過NFTs把房子放滿藝術品。消費者們可以好好裝扮自己在元宇宙內的分身,買電影院或者演唱會的票。所有的商品和服務可以透過NFTs標示所有權的方式跟企業購買。   在元宇宙裡,交易行為將與現實世界一模一樣。財產可以被交易、關係可以被建立,也可以成立公司,更會創造出智慧財產,也會產生著作權的爭端,或者發生利用數位資產洗錢、逃漏稅等新型態的犯罪,但元宇宙中的行為人與現實世界行為人不一定有明確連結,使得執法機關更難以追查,甚至產生管轄權之衝突。在元宇宙中存在和營運的公司也如同現實世界一樣,需要法律專家和保險制度降低他們的風險。   元宇宙對法律產業和監管機構帶來的影響是多方面的。Facebook,或者說改名後的Meta,有意激發世人對元宇宙的討論以及關注元宇宙的發展,而律師們和法律事務所也必須熟稔於這個領域,以應付那些即將要投入這項產業的客戶們。

TOP