基因改造食品標示問題有新進展

  加拿大目前對基因改造產品的政策是採取自願標示制度。然而魁北克省的消費者贊成應對含有機因改造成份之食品實施強制標示。本月初,該省農林廳長在一項會議中指出,基因改造產品可能存有環境方面的風險並且有消費者疑慮的問題,因此應嚴謹以對,改採取強制性標示制度,讓消費者可以自行選擇。雖然目前聯邦官員以及其他省份仍贊同現行的自願標示制度,首長們 ( 大部分反對強制標示的立法 ) 同意繼續討論此議題。


  此外,目前近日美國阿拉斯加州亦通過 Bill 25 法案,強制對基因改造魚類及相關魚類產品作明顯標示。這項法案通過後,該州成為美國第一個針對基因改造食品標示問題作明確立法的一州,該法案更成為美國第一個要求標示基因改造食品的法案。有關觀察家預期這個法案將會帶動美國各州對基因改造食品之標示進行必要的規範。根據美國 Rutgers 大學於 2004 11 月所作的民調顯示,約有 89 %的美國民眾希望基因改造食品應有明確的標示。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 基因改造食品標示問題有新進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=412&no=67&tp=1 (最後瀏覽日:2026/01/24)
引註此篇文章
你可能還會想看
美國通過《非自願私密影像移除法》 以遏止利用AI深偽技術之性犯罪

2025年5月19日美國總統川普簽署《非自願私密影像移除法》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, TAKE IT DOWN Act),該法散播未經同意之親密影像,如深偽色情(deepfake porn)和報復性色情(revenge porn)視為犯罪行為。 長久以來非自願私密影像(Non-Consensual Intimate Image, NCII)所造成的傷害一直無法被有效處理,AI深偽技術出現之後讓問題變得更加複雜。美國目前僅有20個州對深偽影像設有專法,但各州對 NCII 的定義、刑責與處理方式差異甚大,受害者亦難以在第一時間快速將影像移除,導致二次創傷。 為解決前述問題,共和黨與民主黨展現高度共識,眾議院於2025年4月28日以409票同意、2票反對,壓倒性通過《非自願私密影像移除法》,並於同年5月19日獲川普總統簽署生效,此為眾議院首部管理人工智慧引發危害的重大立法。 《非自願私密影像移除法》重點與相關討論整理如下。 一、散布未經同意的私密影像屬刑事犯罪 依據《非自願私密影像移除法》,任何人若透過互動式電腦服務(interactive computer service)故意揭露或威脅散布可辨識個人之親密影像即構成刑事犯罪。親密影像包含真實私密影像(Authentic intimate visual depictions)或數位偽造影像(Digital forgeries)兩種情形,後者係指透過軟體、機器學習、人工智慧,或任何其他電腦產生或技術方式所創建之親密影像,包括改編、修改、操弄或變造真實影像,且從整體上來看,一般人難以與真實影像區分者。 二、受規範平台(covered platforms)應即時協助受害者移除相關影像 受規範平台係指係向公眾提供服務之網站、線上服務或行動應用程式,且該服務主要是提供一個平台,讓用戶得以分享其自行產製之內容(user-generated content),如訊息、影像、音訊、遊戲等;若該服務涉及發布、策劃、託管或提供未經同意的私密影像,亦屬本法所規範之平台。 受規範平台應自《非自願私密影像移除法》頒布日起一年內,建立一套機制供受害者或其代理人申請移除未經同意散布的私密影像。平台在收到移除請求後,應於48小時內移除該影像,並在合理範圍內努力搜尋並刪除所有明顯為該影像之複製品。若平台未能遵守此一規範,會被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)所定義之「不公平或欺騙性商業行為」,並適用該法的相關處罰機制,例如民事懲罰(civil penalty)等。 三、執法單位是否能有效執行是關鍵 《非自願私密影像移除法》授權聯邦貿易委員會(Federal Trade Commission, FTC)作為執法單位,然而由於川普政府近期大幅刪減聯邦機構的開銷與人力,FTC能否在48小時內移除相關私密影像備受質疑;亦有論者擔憂這項機制被濫用,恐成為政府打壓言論自由的政治工具,川普總統即公開表示他會利用這部法律來審查批評者的言論。此外,《非自願私密影像移除法》未設立反濫用條款,任何人都可要求平台刪除影像內容,加上平台有時間壓力可能會預防性刪除內容而非實質審查,形同變相限縮言論自由的空間。 《非自願私密影像移除法》是一部試圖回應數位性暴力與AI深偽技術新興威脅的里程碑式立法,反映出立法者對於保障隱私與防止科技濫用的高度共識。然而,該法利益良善但仍需面臨現實端的檢驗,能否公正且有效率的執法將成為成敗的關鍵。

美國國會通過700MHz D區段頻譜之規範

  為實施公共安全網路計畫,美國國會在2012年二月通過「2012年中產階級稅收減免及創造就業法案」(Middle Class Tax Relief and Job Creation Act of 2012),將700MHz頻段中既有存在之公共安全寬帶頻譜(763-769 MHz/793-799 MHz)與相鄰的D block的頻段(758-763MHz與788-793MHz)規劃成 「互通公共安全寬頻網路」(interopertable public safety broadband network),進行頻譜拍賣。   雖FCC經本法案授權執行D Block頻段的拍賣,但也限縮其職權規定FCC不得限制任何特定業者參與競標。針對FCC職權受到限制,業者認為可避免FCC在拍賣期間逕自訂定特別規則之情形。但法案仍保留FCC執行「普遍適用性的規定」(rules of general applicability)之權利,以頻譜聚合(spectrum aggregation)的規定促進市場競爭。對此,主導業者擔心FCC可能藉採取「頻譜上限」 (spectrum cap)的管制手段來限制其獲得大量頻譜的機會。   另外,面對全國性公共安全寬頻網路部署之需要,國會將授權行政部門建立「緊急救難管理局」(First Network Authority, FirstNet)來進行整體網路之開發規劃。在FirstNet尚未成立之前,FCC將暫時承擔此一過渡期間管理全國公共安全寬頻網路之責任。但FirstNet在未來是否能依照國會所期待順利掌管整體公共安全寬頻網路之運作,並達成建構一跨機關、部會以及區域的無縫互通寬頻網路平台(a nationwide interoperable public safety broadband network)之期望,FCC認為該局所任命之委員會委員所具備之專業度,以及各聯邦機構是否充分的支持將是成功之關鍵。

網路搜尋引擎龍頭Google 控告Microsoft剽竊搜尋結果

  網路搜尋引擎龍頭Google質疑Microsoft研發的“Bing”搜尋引擎有剽竊Google搜尋結果的狀況,對此Google已提出訴訟。Google表示,為了要調查是否有搜尋結果被剽竊的情形,故意在搜尋引擎中創造近100個毫無意義的搜尋關鍵字,例如“Hiybbprqag”、“Mbzrxpgiys”和“Indoswiftjobinproduction”等,同時對應該關鍵字插入虛假的搜尋結果。在幾個禮拜之後,Google發現競爭對手Microsoft 的Bing搜尋引擎也出現相同的搜尋結果,因此認為Bing有剽竊之疑。Google表示:「Google的搜尋結果是經過多年辛苦努力的成果,這件事情對我們來說像是一場馬拉松賽跑中有人在背後偷襲你,然後突然跳到終點站前迎接勝利,是一種欺騙的行為。」   Microsoft否認剽竊搜尋結果,認為這是Microsoft用來提高搜尋品質結果的方法之一,Bing實際上使用不同的符號和方法來對於不同的搜尋結果加以分級,用來辨別不同的搜尋結果。同時針對搜尋結果提供多數關連的答案,藉此增加消費者對於Bing搜尋引擎的良好經驗,Google使用間諜手法(Spy-novelesque stunt)對競爭對手進行調查,此舉已抹黑Bing,蒙上不好的評價。   Google提出抗辯認為Bing的行為構成簡單而顯然的詐欺,造成不同的搜尋引擎產生同樣的搜尋結果。況且搜尋引擎的功能,若可以出現與Google搜尋下相同的結果,並無法保證能創造出更好的搜尋品質,Microsoft的說法無法獲得肯認,後續延燒的訴訟爭議,有待日後進一步觀察。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP