歐盟核准澳洲基因改造康乃馨之進口

  歐盟最近核准一項由澳洲生技公司Florigene所研發的基因改造康乃馨之進口,核准有效時間為十年。Florigene為澳洲最早設立的生技公司之一,屬日本三多利集團(Suntory group)之一,Florigene的基因改造康乃馨係以”Florigene Moonlite”之名行銷,該公司利用基改技術改變康乃馨的顏色,以延長其瓶插的時間,該基因改造康乃馨中另含有抗雜草基因。

 

  根據歐盟執委會核准內容,未來Florigene的基因改造康乃馨將可在歐盟27個會員國境內,以切花的形式銷售,但不得在歐盟境內栽種,並須依歐盟法令規定,明確標示為「本產品為基因改造生物」或「本產品為基因改造康乃馨」,標示內容同時必須指明「不得供人類或動物食用,且不得用以栽種」或在產品附隨文件中為前述之說明。

 

  事實上歐盟並非首次核准通過基因改造康乃馨之進口,早在1998年開始展開實質的六年基因改造生物進口禁令前,歐盟所通過的最後兩件基因改造植物核准案,即是基因改造康乃馨。不過歐盟一向對基因改造生物持保守態度,因此在2004年實施更為嚴格的基因改造生物管理法制後,才又重新啟動基因改造生物之進口審查。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟核准澳洲基因改造康乃馨之進口, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2288&no=55&tp=1 (最後瀏覽日:2026/03/24)
引註此篇文章
你可能還會想看
美國最高法院明確放寬專利權耗盡原則之適用範圍

  美國最高法院於2017年5月30日針對Impression Products v. Lexmark International作出最終裁決,說明當專利權人銷售專利產品時,無論在美國境內或境外,專利權人不能再以美國專利法來限制該專利產品,一經銷售後該產品專利權已經耗盡。   本案起因為美國印表機研發製造大廠Lexmark推出兩項碳粉匣方案:原價碳粉匣,無任何轉售限制;以及優惠碳粉匣,並附帶「一次性使用」(single use)及「不得轉售」(no resale)限制條款,消費者不得自行填充再利用、再轉售或轉讓給原廠以外的第三方。本案專利權人Lexmark控告同業Impression侵害其權利(違反一次性使用及不得轉售),被告Impression則主張兩項碳粉匣產品的專利權在美國境內的首次銷售後就已耗盡了。該案爭點包含:(一)專利產品在境外首次授權或銷售,是否導致專利權耗盡;(二)專利權人訂立售後限制條款,可否用以追究當事人違反限制條款責任?   地院引述最高法院過去兩個判例(Quanta案及Kirtsaeng案),裁定Lexmark專利產品因首次授權銷售情形而權利耗盡。原告Lexmark提出上訴,CAFC則認為專利產品在境外銷售情形,不會導致專利權人在境內專利權耗盡,且在首次銷售時給的授權,已經合法限制再銷售或再使用,故Impression仍構成專利侵權。   最終,最高法院推翻CAFC見解,認為無論是專利權人直接銷售,或是對專利產品加諸任何限制,專利權人決定銷售產品時,該產品相關的專利權就會耗盡。另外最高法院亦指出,當專利權人透過契約與購買者約定,限制其使用或轉售的權利,其在契約法上或許有效,但在專利侵權訴訟中則沒有用。本案後,最高法院確立採國際耗盡原則,說明專利權人在全球任何地方,產品經銷售後即權利耗盡,無論專利權人是否有任何售後限制。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

歐盟倡議「邁向資料經濟時代」政策,規劃巨量資料Big Data發展策略

  2014年7月歐盟執委會針對巨量資料規劃新的政策,提出「邁向資料經濟時代」(Towards a thriving data-driven economy)政策,對研究發展帶來激勵,創造更多的商業機會。先前在2010年至2015年巨量資料科技與服務市場觀察報告中,指出預期巨量資料科技複合成長率為40%。從這些國際趨勢觀察,智慧聯網與巨量資料涉及的領域包括健康、食品安全、氣候與能源資源、智慧運輸系統以及智慧城市等,而這些都是當前歐洲無法忽略的問題。因此,此政策中指出應支持重點資料來促進公共服務與市民生活的競爭力與品質,廣泛分享使用並發展公開資料資料以及研究資料、確認相關的法律架構與政策屬有利發展、利用政府採購將資料科技帶入市場等項重點,以促成資料驅動經濟的全球化發展。   歐盟指委會並指出,推動巨量資料政策的施行尚仰賴於其他的行動計畫以及各個會員國之間的合作 。而在資料蒐集與利用逐漸擴張的情形下,歐盟執委會更於2014年7月2日發出聲明,要求各國政府應重視巨量資料帶來的問題,並且指出在巨量資料的公共諮詢中,有主要四個問題: (1)缺乏跨境的合作(2)未具有充分設施以及資金資助機會(3)缺乏資料專家以及相關技術(4)法規範過於零散且複雜。因此,歐盟執委會提出以下幾點,有助於問題的解決: 1. 透過公私營合作制度資助巨量資料發展,特別是在個人醫療領域上的應用。 2. 在Horizon 2020架構下,設立巨量資料中心,將以資料為基礎,將之與雲端使用構成供給鏈,藉此幫助中小企業。 3. 當透過智慧聯網,及機器與機器間通訊取得資料時,應針對資料所有權以及責任規範建立新的準則。 4. 建構資料標準,找出潛在的缺漏。 5. 建立一系列超級運算中心,增加歐洲資料專家。 6. 在不同會員國建立資料處理設施之聯結網絡 。   歐盟執委會希望能於上述各項政策推動下,共同建立有助資料經濟發展基礎架構及環境,並鼓勵產業界共同投入巨量資料的應用發展。

美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利

美國聯邦貿易委員會(Federal Trade Commission, FTC)於2023年12月對《兒童線上隱私保護規則》(Children's Online Privacy Protection Rule, COPPA Rule)提出修法草案,並於2024年1月11日公告60日供公眾意見徵詢。 FTC依據兒童線上隱私保護法(Children's Online Privacy Protection Act, COPPA)第6502節授權,訂定COPPA Rule,並於2000年通過生效,要求網站或提供線上服務的業者在蒐集、使用或揭露13歲以下兒童的個人資訊之前必須通知其父母,並獲得其同意。本次提議除了限制兒童個人資訊的蒐集,亦限制業者保留此些資訊的期間,並要求他們妥善保存資料,相關規定如下: (1)置入固定式廣告時需經認證:COPPA所涵蓋的網站和線上服務業者現在需要獲得兒童父母的同意並取得家長的授權才能向第三方(包括廣告商)揭露資訊,除非揭露資訊是線上服務所不可或缺之部分。且因此獲悉的兒童永久身分識別碼(persistent identifier)也僅止於網站內部利用而已,業者不能將其洩漏予廣告商以連結至特定個人來做使用。 (2)禁止以蒐集個資作為兒童參與條件:在蒐集兒童參與遊戲、提供獎勵或其他活動的個資時,必須在合理必要的範圍內,且不能用個資的蒐集作為兒童參與「活動」的條件,且對業者發送推播通知亦有限制,不得以鼓勵上網的方式,來蒐集兒童的個資。 (3)將科技運用於教育之隱私保護因應:FTC提議將目前教育運用科技之相關指南整理成規則,擬訂的規則將允許學校和學區授權教育軟硬體的供應商將科技運用於蒐集、使用和揭露學生的個資,但僅限使用於學校授權之目的,不得用於任何商業用途。 (4)加強對安全港計畫的說明義務:COPPA原先有一項約款,內容是必須建立安全港計畫(Safe Harbor Program),允許行業團體或其他機構提交自我監督指南以供委員會核准,以執行委員會最終定案的防護措施,此次擬議的規則將提高安全港計畫的透明度和說明義務,包括要求每個計畫公開揭露其成員名單並向委員會報告附加資訊。 (5)其它如強化資訊安全的要求以及資料留存的限制:業者對於蒐集而來的資訊不能用於次要目的,且不能無限期的留存。 FTC此次對COPPA Rule進行修改,對兒童個人資訊的使用和揭露施加新的限制,除了將兒童隱私保護的責任從孩童父母轉移到供應商身上,更重要的是在確保數位服務對兒童來說是安全的,且亦可提升兒童使用數位服務的隱私保障。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

TOP