美國聯邦法官指出藥用基改作物之種植應予嚴格管理

  美國聯邦法院最近判決美國聯邦官員在 2001 年及 2003 年,允許四家企業在夏威夷種植基改作物以生產試驗用藥的行為,違反環境法規。該許可內容涉及許可在夏威夷州 Kauai, Maui, Molokai and Oahu 種植玉米或甘蔗。


  本案法官 Michael Seabright 判決中特別指出,鑑於夏威夷州乃是許多瀕臨絕種或受到絕種威脅的生物的棲地-該州計有 329 種罕見生物,占全美瀕臨絕種生物及受到絕種威脅生物種類之四分之一,而美國農業部動植物健康檢疫服務( Department of Agriculture's Animal and Plant Health Inspection Service )在許可種植基改作物前,竟未先進行初步的環境檢視( preliminary environmental reviews ),很明顯地已違反該機關依據瀕臨絕種生物法( Endangered Species Act )及國家環境政策法( National Environmental Policy Act )所應盡之義務。


  本案原告 EarthJustice 認為,本案是第一件聯法院就 biofarming 所做之判決。所謂 biopharming 係指研究人員利用基改技術將植物用來作為生產藥品、抗體、疫苗等生技藥物的生物反應器( bioreactors )。由於植物可以大量栽種,因而若 biopharming 技術可行,將可有效解決生技藥物供給短缺的問題,嘉惠更多的病患,因而, biopharming 被視為未來可能顛覆傳統的藥物生產的一種生技藥物製造方式。目前, biopharming 廣泛使用的植物包括玉米、煙草等。


  biopharming 的構想可以較低的成本解決部分生技藥物生產的問題,但其構想看似極具吸引力,不過發展 biopharming 並非毫無挑戰,尤其是如何就藥用基改植物予以隔離管理,避免基因污染。反對者一般主張,藥用基改植物 並未通過食用安全性測試,並不適合人體食用或是當作家畜飼料, 如果栽種藥用基改植物的隔離管理未做好把關,難保這些本應受到嚴格管制的治療性植物進入到食物供應鏈,影響民眾的身體安全。


  在民眾健康及環境生態安全的考量下,反對推展 Biopharming 的力量也越來越大,本案即是一個明顯的例子。

相關連結
相關附件
※ 美國聯邦法官指出藥用基改作物之種植應予嚴格管理, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=449&no=64&tp=1 (最後瀏覽日:2025/12/18)
引註此篇文章
你可能還會想看
美國勞工部發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」文件,要為雇主和員工創造雙贏

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 美國勞工部(Department of Labor)於2024年10月發布「人工智慧及勞工福祉:開發人員與雇主的原則暨最佳實務」(Artificial Intelligence and Worker Well-Being: Principles and Best Practices for Developers and Employers)參考文件(下稱本文件)。本文件係勞工部回應拜登總統2023年在其《AI安全行政命令》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)中對勞工的承諾,作為行政命令中承諾的一部分,本文件為開發人員和雇主制定如何利用人工智慧技術開展業務的路線圖,同時確保勞工可從人工智慧創造的新機會中受益,並免受其潛在危害。 本文件以八項AI原則為基礎,提出最佳實踐作法,其重點如下。 1. 賦予勞工參與權(empowering workers):開發人員和雇主履行各項原則時,應該秉持「賦予勞工參與權」的精神,並且將勞工的經驗與意見納入AI系統整個生命週期各環節的活動中。 2. 以合乎倫理的方式開發AI系統:開發人員應為AI系統建立標準,以利進行AI系統影響評估與稽核,保護勞工安全及權益,確保AI系統性能符合預期。 3. 建立AI治理和人類監督:組織應有明確的治理計畫,包括對AI系統的人類監督機制與定期評估流程。 4. 確保AI使用透明:雇主應事先告知員工或求職者關於AI系統之使用、使用目的及可能影響。雇主及開發人員應共同確保以清晰易懂的方式公開說明AI系統將如何蒐集、儲存及使用勞工的個資。 5. 保護勞工和就業權利:雇主使用AI系統時,除應保障其健康與安全外,不得侵犯或損害勞工的組織權、法定工資和工時等權利。 6. 使用AI以提升勞工技能(Enable Workers):雇主應先了解AI系統如何協助勞工提高工作品質、所需技能、工作機會和風險,再決定採用AI系統。 7. 支援受AI影響的勞工:雇主應為受AI影響的勞工提供AI技能和其他職能培訓,必要時應提供組織內的其它工作機會。 8. 負責任使用勞工個資:開發人員和雇主應盡責保護和處理AI系統所蒐集、使用的勞工個資。

虛擬人生,真實訴訟! 美商藝電EA控告社交遊戲公司Zynga侵犯著作權;Zynga控告EA不正競爭。

  美商藝電EA(Electronic Arts)於今年八月初在舊金山地方法院控告以社群遊戲著稱的Zynga於六月在Facebook所推出的遊戲《The Ville》抄襲EA於2011年八月推出的「模擬市民(The Sims Social)」,侵犯EA的著作權。EA表示,The Ville中的設計選項、動畫、畫面處理、角色的活動及動作都原封不動地抄襲自EA的「模擬市民(The Sims Social)」。EA聲稱,Zynga抄襲了「模擬市民(The Sims Social)」原始並特殊的表達要素(original and distinctive expressive elements),明顯違反美國的著作權法。EA並表示,Zynga任用了三位自EA離職的員工而獲取了「模擬市民(The Sims Social)」的商業機密。Zynga則反譏EA欠缺對於著作權原則的了解,並表示《The Ville》是Zynga小鎮遊戲(Ville-game)系列的延續,過去曾推出的系列遊戲包含《YoVille》、《CityVille》以及《Castile Ville》,EA的指控毫無根據。     雖然《The Ville》與「模擬市民(The Sims Social)」兩者在遊戲的角色設定以及角色圖樣跟背景有諸多相似,但是Zynga在細節上做了許多與EA不同的設定。本案如果有效成立,將對於遊戲產業造成顯著影響。     美國法下,遊戲產業的智慧財產權議題中,一個重要的法律關鍵在於「思想/表達二分法(idea/expression dichotomy) ,「思想(idea)」並非著作權的保護客體,僅想法的表達方式(expression)是著作權的保護客體。舉例而言,你可以再寫一本有關於魔法學校的書,但是你不可以把書中的主要角色命名為哈利波特。      1994年時,快打旋風二(Street Fighter II)的發行商嘉富康(Capcom)控告DECO(Data East Corporation)的格鬥列傳(Fighter’s History)抄襲,但是法院認為嘉富康遊戲的角色是植基於既存典型角色以及武術原則,DECO的相似性並不侵犯快打旋風的著作權。     九月中,Zynga對EA提出反訴,控訴EA採取不正競爭(anticompetitive)以及不法(unlawfully)商業行為,違反反托拉斯法(anti-trust law)。Zynga指出,EA試圖以法律訴訟以及恐嚇離職員工的方式,非法阻止Zynga雇用EA的離職員工。Zynga指稱EA威脅Zynga將提出訴訟,要求Zynga與之簽訂「不任用協議(no-hire agreement)」,依照該協議EA將不對Zynga提出關於雇用員工的告訴以做為簽約對價。但是EA在今年八月對Zynga的著作權告訴已經打破該協議。事實上依照加州法,禁止離職員工去競爭公司任職是違法的。矽谷這類因為員工到競爭對手任職而引發的法律案件還有蘋果(Apple)以及谷歌(Google)一案,這兩家公司過去曾因為簽訂不挖角協議而遭美國司法部起訴,後來與美國司法部達成和解。EA則表示離職員工抄襲其它EA設計師,Zynga此舉意圖轉移社會及法庭注意力。除了否認EA抄襲的指控,Zynga更表示,沒有任何根據可以說明EA是虛擬人生遊戲的創始者,Zynga的《YoVille》推出時間甚至早於EA的「模擬市民(The Sims Social)」三年。     本案因為矽谷遊戲產業人才的流動性而增加了案件的複雜性,跳脫一般的著作權侵權訴訟,既然離職後到競爭對手任職是可被允許的,那麼產出類似的遊戲產品就更加難以避免,不論是基於自身的創意或者模仿過去共事同仁的創意,「學習」以及「抄襲」之間的界線總是難以劃分,如果本案成立著作權侵權,矽谷遊戲人才在開發設計遊戲時必然需要更加小心謹慎。 圖片來源: Tech Crunch

美國白宮為因應TikTok威脅頒布行政命令,以維護資通訊技術與供應鏈國家安全

  美國白宮為因應TikTok威脅,於2020年8月6日頒布第13942號行政命令,以確保資通訊技術與供應鏈國家安全,禁止在美國管轄範圍內的任何人或相關實體,與中國大陸「字節跳動(ByteDance)」及其子公司為任何交易行為。本行政命令係依據美國《國際緊急經濟權力法》(International Emergency Economic Powers Act, IEEPA)、《國家緊急狀態法》(National Emergencies Act, NEA)及《美國法典》(United States Code, U.S.C.)第3篇第301條,以及2019年5月15日頒布的第13873號行政命令,要求國家應維護資訊、通信技術和供應鏈安全,並採取措施以應對國家緊急情況。由中國大陸企業開發及所有的行動應用程式,例如TikTok及WeChat等已威脅到美國國家安全、外交政策及經濟利益,必須採取應對措施。據查TikTok會自動從使用者方擷取大量資料,包括網際網路、定位資料及瀏覽紀錄等。此種資料蒐集行為將使外國人及政黨可以取得美國個人的專屬敏感資訊,追蹤到聯邦政府人員及政府承包廠商位置,建立個人資料檔案進行勒索和商業間諜活動。美國國土安全部、美國運輸安全管理局(Transportation Security Administration, TSA)和美國武裝部隊,已禁止在聯邦政府的通訊設備上使用TikTok,防止資料被竊取並傳輸至境外伺服器。   面對美國全面封殺中國大陸資通訊產品,中國大陸近來亦透過出口管制方案進行反制,2020年8月28日中國大陸商務部會同科技部,調整《中國禁止出口限制出口技術目錄》,將涉及軍民兩用的53項技術,納入出口管制清單。凡涉及向境外技術移轉,無論是採用貿易、投資或是其他方式,皆須申請省級商務主管部門的技術出口許可,獲得批准後方可對外進行實質性談判,簽訂技術出口契約。其中,因TikTok的人工智慧與演算技術,已被含蓋在目錄的管制清單內,若是TikTok要從中國大陸境內轉讓相關技術服務予境外,應暫停相關交易及實質性談判,先履行申請許可程序再為後續行動。

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

TOP