歐盟核准澳洲基因改造康乃馨之進口

  歐盟最近核准一項由澳洲生技公司Florigene所研發的基因改造康乃馨之進口,核准有效時間為十年。Florigene為澳洲最早設立的生技公司之一,屬日本三多利集團(Suntory group)之一,Florigene的基因改造康乃馨係以”Florigene Moonlite”之名行銷,該公司利用基改技術改變康乃馨的顏色,以延長其瓶插的時間,該基因改造康乃馨中另含有抗雜草基因。

 

  根據歐盟執委會核准內容,未來Florigene的基因改造康乃馨將可在歐盟27個會員國境內,以切花的形式銷售,但不得在歐盟境內栽種,並須依歐盟法令規定,明確標示為「本產品為基因改造生物」或「本產品為基因改造康乃馨」,標示內容同時必須指明「不得供人類或動物食用,且不得用以栽種」或在產品附隨文件中為前述之說明。

 

  事實上歐盟並非首次核准通過基因改造康乃馨之進口,早在1998年開始展開實質的六年基因改造生物進口禁令前,歐盟所通過的最後兩件基因改造植物核准案,即是基因改造康乃馨。不過歐盟一向對基因改造生物持保守態度,因此在2004年實施更為嚴格的基因改造生物管理法制後,才又重新啟動基因改造生物之進口審查。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟核准澳洲基因改造康乃馨之進口, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2288&no=67&tp=1 (最後瀏覽日:2026/01/22)
引註此篇文章
你可能還會想看
因應禁止「競業禁止條款」,企業得透過「資料存證」,證明營業秘密存在及擁有

  近年來,關於「競業禁止條款」之合法性及有效性等,一直是被廣泛討論的議題,在2023年1月5日,美國聯邦貿易委員會(Federal Trade Commission, FTC)發布禁止「競業禁止條款」之提案,並指出依調查結果顯示,其造成勞工薪資降低及壓抑流動性等負面影響,故企業未來可能須透過主張《統一營業秘密法》(Uniform Trade Secrets Act)或《防衛營業秘密法》(Defend Trade Secrets Act)等,以保護營業秘密。同時應值注意者為,有論者提出未來解決方案為企業應推動自動化營業秘密管理系統,而其中一個必要元素是應採取「資料存證」措施,以證明營業秘密存在及擁有。   所謂自動化營業秘密管理系統,即透過工具,對於營業秘密進行「識別」與「評估」,並應對於不具有經濟價值的資訊進行解密。惟為避免增加營業秘密外洩風險,故相關系統應僅留存後設資料。與此同時,為取得盜用營業秘密相關的勝訴裁判,除應留存及保護任何時點的後設資料外,更應採取能夠證明營業秘密存在及擁有之措施,如透過雜湊值或區塊鏈等技術進行「資料存證」,以確保能夠在訴訟上提供必要證據。   最後,近期司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同規劃與建置「司法聯盟鏈」機制,藉由區塊鏈技術,並結合已通過經濟部智慧財產局審查核准之b-JADE證明標章,明定嚴謹之數位資料管理要求,以期強化數位證據同一性及建立簡便驗真程序。因此,未來企業若落實b-JADE證明標章所定之管理要求,將幫助營業秘密數位資料通過驗真程序。   本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

Ofcom第八次電信與付費電視申訴報告

  Ofcom在今(2013)年3月公佈「2012年第四季電信與付費電視申訴報告書」(Telecoms and Pay TV Complaints Q4 2012),以履行2003年通信法(Communications Act 2003)第26條規定:Ofcom應公布通訊資訊與建議於消費者。是故,為維護消費者之權益,並促進市場競爭,Ofcom從2011年4月起每季公佈「電信申訴報告書」 (Telecoms Complaints);同年10月修訂為「電信與付費電視申訴報告書」(Telecoms and Pay Tv Complaints)。這份報告書不僅協助消費者選擇較好供應商,更意在促進業者服務品質,而從幾次報告書中顯示,業者們被投訴量確實持續下降,可見效果斐然。   Ofcom選擇市占率超過4%、且每月被投訴超過30次的市話、固網寬頻、行動通信服務(月租),與付費電視為調查對象,以維護統計信度。當消費者申訴具有綑綁式服務(bundled services)業者,則視其申訴是否涵蓋多種服務,以Sky同時具有電話、網路服務為例,當民眾申訴廣告不實後,則此申訴僅被記錄於網路服務。由於,民眾申訴範圍相當廣泛而難以統整,Ofcom僅向外界公布業者被投訴的次數,且有下述研究限制: 1.Ofcom僅蒐集本身受理的申訴數據,而其他組織、供應商所受理的,一概不納入報告書。 2.Ofcom雖力求數據的合理性,但不會檢驗消費者投訴的真實性。 3.當Ofcom倡導某些政策時(例如打及廣告不實),可能會導致某些業者申訴量提高。   在這次報告中,各領域被投訴最多的業者如下:Talk Talk於市話服務被投訴最多,被投訴的理由多數為服務缺失與相關服務爭議。Orange則在固網寬頻、行動通信服務(月租)受到最多申訴,其原因是Orange採取民眾購買寬頻服務後,方得再取得免費網路,以取代原本免費網路的提供。在付費電視上,則是BT Vision受到最多申訴,而內容多為提供服務與處理申訴之缺失。Ofcom期以公佈這些資訊,讓消費者得於每個領域選擇最好的供應商。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP