美國FDA公告食品營養強化物添加之指導原則

  添加營養素到一般之食物中,對於維持或增進整體食物之營養品質來說,是一個非常有效率之方式。然而,不當添加或濫用這些外加之營養素,卻可能造成消費者過度或不足攝取某些特定之營養成分,甚至更可能造成某些食物之營養價值有誤導或詐騙消費者之嫌。

  美國食品藥物管理局(Food and Drug Administration,以下簡稱FDA)為了統一回應食品廠商、其他聯邦主管機關以及相關學會之問題,針對添加到食物中之必需營養補充品,在2015年11月6日公告了一份指導原則(Questions and Answers on FDA’s Fortification Policy)。本指導原則以Q&A之形式呈現,,列出FDA對於食品營養強化物(Fortification of Foods)政策之態度(並未變更其自1980年代以來對於食品營養強化物之向來立場)以及建議遵循規定。

  FDA建議食品營養強化物添加之基本原則如下:校正飲食之缺陷;補充因食物於處理、流通之過程中所喪失之營養素;根據食物整體熱量計算之結果,均衡添加各種食品營養強化物等。

  本指導原則僅適用於人類使用之食品,動物用食品並不在其建議範圍內;另外,其亦不適用於嬰幼兒配方或是一般之保健營養品,其僅適用於一般常規之食物,例如:牛奶、果汁、豆漿、麥片、麵包、通心粉、乳瑪琳等。但是要注意,針對一些新鮮的食物或本身即非營養的食物,例如:新鮮蔬菜、魚肉類、糖、甜點、碳水化合物等,並不建議再額外添加食品營養強化物。

  另外,只有人體所必須的營養素(essential nutrients)才可額外添加到常規的食品中,亦即所有添加物都須依據膳食營養素參考攝取量(Reference Daily Intakes;RDI)所規定之種類及建議量,做適當的添加;且添加物必須合法且安全。

  食品營養強化物之標示,則必須依據食品標示相關法規恰當為之,不可出現會誤導消費者的任何詞彙,也不宜做出任何可以預防營養素缺乏之陳述,因為這麼做可能使消費者誤認有添加物的食品其營養成分較原始食物高。

  本指導原則對廠商並無強制力,然要是廠商有違反本指導原則之情形,FDA將會發出警告信,顯示出FDA強烈建議廠商遵守本指導原則之決心。

相關連結
※ 美國FDA公告食品營養強化物添加之指導原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7102&no=64&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

政府將Linux認證納入採購需求

  一直以來負責政府部門資訊軟體採購的中信局,均要求廠商出示所謂 " 原廠証明 ",但是自由軟體並無法取得 " 原廠証明 ",以致難以打入公部門。今年中信局第一季發佈的政府採購需求中,首度在個人電腦部份列出具備 Linux 相容測試以及中文化認證的產品。未來要做政府生意的非 Windows-based 桌面電腦軟硬體廠商,都必須取得 Linux 相容測試認證。這是政府為了擴大 Linux 軟硬體使用而推動 Linux 相容測試,第一次明文要求, Linux-based PC 必須要具備 Linux 相容性認證。Linux 相容認證列入 IT 產品採購規格中,將因政府需求的驅動而有助於刺激國內廠商參與測試、取得認證的意願,使推動 Linux 的力量更為聚焦。   眾多 Linux 版本 OS、應用彼此相容、以及中文化不足,是國內企業使用與佈署特別是 Linux 桌面軟體造成障礙。三年前工業局推動成立 Linux 相容測試中心,希望能降低 Linux 版本相容性問題,並在今年開始推動中文化認證。   過去 Linux 相容測試免費提供廠商產品測試服務,並沒有於政府需求銜接,導致在促進 Linux 產品取得認證過於發散,此次中信局僅在個人電腦部份列出需求,也有助於收斂投測產品種類。 Linux 相容測試中心,也將在本月頒發第一批「 Linux 軟硬體相容性基本驗證規範」及「基本中文化實用性驗證」的產品。   Linux 相容測試中心交由台北市電腦公會(TCA)負責的 Linux 促進會執行

美國4州及司法部指控資料處理商(Agri Stats)的資料共享行為涉及聯合行為

美國明尼蘇達州、加州、北卡羅萊納州及田納西州之檢察總長於2023年11月加入「美國司法部(U.S. Department of Justice, DOJ)在同年9月對於肉品產業資料提供者(Agri Stats, Inc.,以下簡稱Agri Stats)提起的反壟斷訴訟」中,主張Agri Stats透過報告方式將肉品數據資料分享給訂閱服務之肉類加工商,此類資料共享行為削弱了市場競爭關係造成聯合行為,違反了休曼法(Sherman Act)。以下先就此案背景進行說明,以釐清此案象徵意義。 於2023年2月,美國司法部反壟斷部門撤回3項與資訊共享相關的聲明,該3聲明是為了醫療保健產業而發布,其中就資料分享之安全使用方式亦可讓其他產業的資料提供業者評估其資料分享行為是否造成反壟斷行為,惟在目前AI/演算法技術變革之下,利用共享所得之資料反推競爭對手之競爭策略具有可行性,因此當年認為有助於促進競爭之資料共享行為,現在反而有造成聯合行為之可能,故廢棄該3項已過時的聲明。 於2023年9月28日,美國司法部反壟斷部門於明尼蘇達州指控Agri Stats違反休曼法。Agri Stats為專門彙整、分析美國豬肉與家禽(肉雞、火雞)相關商業資料的資料處理商,並將其分析報告提供給具競爭關係的肉品加工商,肉品加工商可透過將Agri Stats分析報告反推以監控/預測出競爭對手之價格、供應量、營運計畫等,並依分析報告建議進行價格調高與減產的行為,而被美國司法部認定為聯合行為。 該訴訟所涉及的肉品加工商占了全美家禽(肉雞與火雞)銷售量的9成以上,豬肉銷售量的8成以上。目前已有前述4州加入該訴訟,法院後續會如何認定,將影響產業間的資料交換作法,也顯現出資料商業化前須先做好資料管理,確保在合規的範圍內進行資料利用,國內廠商可參資策會科法所公布之《重要數位資料治理暨管理制度規範(EDGS)》對自身資料管理機制進行檢視。 本文同步刊登於TIPS網站(https://www.tips.org.tw/)

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP