基因改造食品標示問題有新進展

  加拿大目前對基因改造產品的政策是採取自願標示制度。然而魁北克省的消費者贊成應對含有機因改造成份之食品實施強制標示。本月初,該省農林廳長在一項會議中指出,基因改造產品可能存有環境方面的風險並且有消費者疑慮的問題,因此應嚴謹以對,改採取強制性標示制度,讓消費者可以自行選擇。雖然目前聯邦官員以及其他省份仍贊同現行的自願標示制度,首長們 ( 大部分反對強制標示的立法 ) 同意繼續討論此議題。


  此外,目前近日美國阿拉斯加州亦通過 Bill 25 法案,強制對基因改造魚類及相關魚類產品作明顯標示。這項法案通過後,該州成為美國第一個針對基因改造食品標示問題作明確立法的一州,該法案更成為美國第一個要求標示基因改造食品的法案。有關觀察家預期這個法案將會帶動美國各州對基因改造食品之標示進行必要的規範。根據美國 Rutgers 大學於 2004 11 月所作的民調顯示,約有 89 %的美國民眾希望基因改造食品應有明確的標示。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 基因改造食品標示問題有新進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=412&no=67&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
美國證券交易委員會對虛擬貨幣交易平台提起訴訟

  美國證券交易委員會(The Securities and Exchange Commission,以下簡稱SEC)於2018年11月8日發出聲明,依據1934年的證券交易法(下稱證交法)第21C條對EtherDelta 創辦人Zachary Coburn 提起訴訟,並做出要求其停止交易之禁止令。   EtherDelta 乃為一線上交易平台,允許買家和賣家在其平台上交易「以太幣」和其他虛擬貨幣。其平台特徵有: 提供平台,促成虛擬貨幣交換 EtherDelta之網站提供一線上平台予買賣雙方,對經過平台認證的虛擬貨幣進行交易,促成虛擬貨幣交換。於網站成立之一年半中,其促成了360萬筆訂單。 以智慧合約自動驗證進行交易 EtherDelta以智慧合約(smart contract)維持網站運作,其智慧合約檢查用戶發出之訊息是否有效,於確認買賣雙方帳戶都有足夠資金後,自動進行交易。 提供資訊且對用戶資格未設限 EtherDelta於網站上提供虛擬貨幣之資訊,以及個別虛擬貨幣之每日交易量,同時於網站上顯示前500筆買方和賣方之交易資訊,以價格和顏色進行分類。而其對於成為網站用戶之資格並無限制。   SEC於本案中認為,EtherDelta並未註冊成為證券交易所,卻執行與證券交易相關之業務,已違反證交法,其論述理由為: EtherDelta平台上之虛擬貨幣屬於證券性質 本案SEC使用Howey Test—美國聯邦最高法院於1946年在SEC v. W. J. Howey Co. 一案中所確立之測試要件,來判斷是否符合證券。由於用戶以金錢購買虛擬貨幣,該金錢投資行為建立共同事業,且具有藉由他人努力而獲利之期待,故屬於證券性質之虛擬貨幣。 EtherDelta性質上為交易所,但未為註冊 EtherDelta 作為平台聚集大量投資人,並以智慧合約促成買賣雙方進行虛擬貨幣交換,已屬於實現證券交易之行為,具有證交所功能,故於不具有豁免情形下,其未註冊已違反證交法第5條規定。   本案就SEC之主張,EtherDelta並未為否認或承認之表示,但同意該禁止交易之命令,並同意支付SEC行使歸入權之30萬美元及其他判決前利息和罰款。   觀察目前美國對於虛擬貨幣買賣行為之監管,並無立專法規範,僅以證交法為準則,就個別虛擬貨幣之性質以Howey Test為檢驗,個案認定是否屬於證券。倘若屬於證券,則對於進行交易之平台課予證券交易所之責任,而對於虛擬貨幣而言,被認定為證券勢必被課予義務俾利增加投資人之保障,可能增加公開度及透明度,然其快速籌資之功能亦可能有所減損,SEC對於虛擬貨幣之監管影響與成效均值得繼續觀察之。另外,SEC曾於2017年7月25日針對The DAO做出一調查報告,其於報告中認為證券型之虛擬貨幣需要受到監管,從而本案作為DAO報告之後被裁罰之虛擬貨幣交易平台首例,有其作為里程碑之重要意義。首先其確立了SEC自DAO報告之後對於證券性質虛擬貨幣需監管之見解,再者表達SEC認為就算採用去中心化、分散式節點之方式進行證券交易,同樣屬於證交法所稱之「證交所」,不因此而豁免監管。

歐盟2020年人工智慧白皮書

  歐盟執委會於2020年2月19日發布「人工智慧白皮書」(White Paper on Artificial Intelligence: a European approach to excellence and trust),以打造卓越且可信賴的人工智慧為目標。歐盟認為在推動數位轉型過程中的一切努力,均不應脫離歐盟以人為本的最高價值,包含:開放(open)、公平(fair)、多元(diverse)、民主(democratic)與信任(confident),因此在人工智慧的發展上,除了追求技術的持續精進與卓越外,打造可信賴的人工智慧亦是歐盟所重視的價值。   歐盟執委會於人工智慧白皮書中分別就如何追求「卓越」與「可信賴」兩大目標,提出具體的措施與建議。在促進人工智慧卓越方面,執委會建議的措施包含:建立人工智慧與機器人領域的公私協力;強化人工智慧研究中心的發展與聯繫;每個成員國內應至少有一個以人工智慧為主題的數位創新中心;歐盟執委會與歐洲投資基金(European Investment Fund)將率先在2020年第1季為人工智慧開發與使用提供1億歐元融資;運用人工智慧提高政府採購流程效率;支持政府採購人工智慧系統等。上述各項措施將與歐盟「展望歐洲」(Horizon Europe)科研計畫密切結合。   而在建立對人工智慧的信賴方面,執委會建議的措施則包含:建立有效控制人工智慧創新風險但不箝制創新的法規;具高風險的人工智慧系統應透明化、可追溯且可控制;政府對人工智慧系統的監管程度應不低於對醫美產品、汽車或玩具;應確保所使用的資料不帶有偏見;廣泛探討遠端生物辨識技術的合理運用等。歐盟執委會將持續徵集對人工智慧白皮書的公眾意見,並據以在2020年底前提出成員國協力計畫(Coordinated Plan)之建議。

歐洲央行提出7500億歐元之「緊急債券收購計畫」以因應新冠肺炎疫情

  歐洲央行(European Central Bank, ECB)於2020年3月18日提出7500億歐元之「緊急債券收購計畫」(Pandemic Emergency Purchase Programme),紓困金額占歐盟年GDP之7.3%,以協助歐盟面臨新型冠狀病毒(covoid-19)所帶來之經濟衝擊,同時也減緩再生能源產業因疫情所帶來之影響。   就此,歐洲央行總裁Christine Lagarde表示,對於紓困對象及方法,歐洲央行將採取不分產業類別自市場購買公債或私人債券之方式,以因應疫情所帶來之影響,其中也包含歐盟投資銀行(European Investment Bank, EIB)所發行之「綠色債券」(Green Bond)。又綠色債券係歐盟投資銀行於2007年所發行,又名「氣候意識債券」(Climate Awareness Bond),職是故,歐洲央行針對歐盟投資銀行綠色債券進行紓困將使再生能源產業蒙受其利。   依歐洲央行之「緊急債券收購計畫」,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買,亦即歐洲央行僅得自價證券買賣之交易市場購買債券,而不得直接購買首次出售之有價證券,此項限制,也包含歐盟投資銀行所發行之綠色債券。   以歐盟投資銀行綠色債券為例,歐洲央行之操作機制在於透過此項購買手段,提升歐盟投資銀行綠色債券之市場價格,同時讓歐盟投資銀行面對投資人時,可以享有較為優渥之議價空間,以降低歐盟投資銀行未來所要付給投資人之利率。同時歐洲央行可再進一步降低對於歐盟投資銀行之利息,進一步降低歐盟投資銀行因發行綠色債券所帶來之利息壓力,促使綠色產業得以因應疫情之衝擊。   如此歐洲央行即達成其目的,減緩投資市場之震盪,同時達到振興經濟產業效益。這也是為何,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買債券之原因。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP