中國大陸食品安全法修訂草案二審稿,將基因改造食品標識明確列入

  2014年12月22日,中國大陸食品安全法修訂草案二審稿增加關於食品貯存和運輸、食用農產品市場流通、基因改造食品標識(中國大陸用語為轉基因食品標籤)等方面之內容。二審稿規定,生產經營基改食品皆應按照規定進行標識,未按規定進行標識的,沒收違法所得和生產工具、設備等物品,最高可處貨值金額五倍以上十倍以下罰款,情節嚴重者責令停產停業,直至吊銷許可證。對於基因改造標識,中國大陸已於《農業轉基因生物安全管理條例》有規定,此次二審稿為保障消費者的知情權,增加加重食品安全違法行為的法律責任,採取多種手段嚴懲,並希望以法律形式將其確定。

  我國食品安全衛生管理法於2014年12月10日修法中,對於基改食品標識部分並未修訂,僅在第22條及24條規定了要標識「食品之容器或外包裝,應以中文及通用符號,明顯標示下列事項…(包含基因改造食品原料)」以及「食品添加物之容器或外包裝,應以中文及通用符號,明顯標示下列事項中…(含基因改造食品添加物之原料)」。然而,我國與中國大陸此次修法雖皆有明訂,但明訂方式、標準等並未描述,又如美國佛蒙特州有意立法通過之基改食品標識法也在今年2015年1月因有爭議舉行公聽會,使該法令生效前恐有中止之情事。目前看來,不同國家有不同的基因改造食品標識政策,但國際間仍致力建立一套統一的規範。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 中國大陸食品安全法修訂草案二審稿,將基因改造食品標識明確列入, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6782&no=67&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
日本經產省公布AI、資料利用契約指引

  伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。   針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。   「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。   AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

美國能源系統需求面管理法制議題之探討

臺北高等行政法院103年度訴更一字第120號判決對健保資料作目的外運用之態度

TOP