德國Brüstle vs. Greenpeace案於歐盟再掀人類胚胎幹細胞研究爭議

  歐盟1998年生物科技發明法律保護指令(Directive on the legal protection of biotechnological inventions,98/44/EC)第6條(2)(c)雖規定「將人類胚胎作產業或商業用途之使用不具備可專利性」,但並未定義何謂「人類胚胎」及「產業或商業用途使用」,因此德國聯邦最高法院於2009年審理Brüstle vs. Greenpeace一案時,遂提請歐盟法院就前述問題為初步裁定。

  在歐盟法院提出初步裁決前,佐審官(Advocate General)M. Yves Bot已先於2011年3月10日提出其法律意見書,認定人類胚胎的概念包括從受精、發展為起始性全能幹細胞(initial totipotent cells)到形成完整人體的整個階段,凡已具備發展為完整人體的基本特質與能力者,均符合指令第6條(2)(c)所稱之胚胎,而不具有可專利性;此外,任何涉及毀損人類胚胎或以人類胚胎為基礎材料的技術亦違反公共秩序與道德,而不得授予專利。至於「產業或商業用途」,其認為係指任何基於產業或商業目的大量製造及使用人類胚胎之行為。

  歐盟法院將於近日作出初步裁決,由於佐審官之意見向來對於裁決結果具有實質影響力,故該意見書已引發各界高度關注與討論;雖然德國聯邦最高法院未必會依循裁決結果進行判決,但該裁決內容已涉及人類胚胎幹細胞研究的核心-胚胎定義與研究成果的可專利性問題,因此未來將對各國幹細胞研究的立法政策走向造成何種影響,值得密切觀察。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 德國Brüstle vs. Greenpeace案於歐盟再掀人類胚胎幹細胞研究爭議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5489&no=55&tp=1 (最後瀏覽日:2026/03/05)
引註此篇文章
你可能還會想看
美國將重新檢討網域管理政策

  美國商業部將於 2006 年 9 月底前舉行針對網域管理的公聽會,檢討美國政府目前對於網域名稱的管理作為,並討論是否將取消對網域名稱的限制與管理。美國這項舉動是回應部分國家對於美國現行網域管理政策的不滿。   目前美國政府主要透過對「網域名稱與位址管理機構」( the Internet Corporation for Assigned Names and Numbers ; IC ANN )的控制,來管理所有”.com” 的網域,並擁有否決網域名稱申請案的權力。美國對於網域的控制,引起部分國家的政府及評論家的批評,認為美國政府對網域的過度干預,已經影響了全球通訊及商業運作的基礎。舉例而言,由於美國政府強烈反對,使專用色情網域”.xxx”申請案遭 ICANN 否決一事,升高了歐盟執委會對美國政府過渡干預網域管理的不滿。   為平衡國際輿論壓力,美國商業部預定於 2006 年 9 月底前召開公聽會,討論往後網域管理的程序及方式,並計畫於 9 月 30 日改變目前對 ICANN 的管理策略。

簡介美國無線電視所有權限制相關規則之發展

BEREC推出網路中立性原則指南

2016年8月底,歐洲電子通傳監管機構(Body of European Regulators for Electronic Communications, BEREC)根據歐洲議會(European Parliament)與歐盟理事會(Council of the European Union)通過的第2015/2120號規章(下稱2120號規章)第5條第3項的規定,推出規範歐盟各會員國國家監管機構(national regulatory authorities, NRAs)落實網路中立性原則的指南,為歐洲近年積極鼓吹數位人權運動寫下勝利的一頁。 該指南主要針對2120號規章以下幾條進行細部說明: 1. 第一條:規範主體與範圍; 2. 第二條:定義; 3. 第三條:網路中立權利的保障; 4. 第四條:確保網路中立的資訊透明措施; 5. 第五條:監管機制; 6. 第六條:罰則; 7. 第十條:規章實施與過渡條款。 指南補充說明了原先規章中,各條條文的相關細部規範。BEREC不只對各條規範中較為模糊的敘述提供明析的論述,同時也強化NRAs規範網路服務供應商(internet service provider, ISP)應提供網路中立服務的拘束力。 該指南的立場旨在希望歐洲網路終端用戶近用網路的權利受到更為完善的保障,且為了達成這樣的目標而為ISPs所提供的服務設下了更為嚴苛的門檻。不過BEREC也表示,ISPs可以在不影響其他終端用戶的權利及傳輸速率下,為特定服務提供特別的服務方案,例如:即時醫療服務(real-time health services)。當然,針對這些特定服務,各國NRAs必須加以監管以確保其他網路終端用戶的權利。 雖然該指南對歐盟各會員國的NRAs有行政指導上的指標意義,不過有趣的是,英國通訊傳播管理局(Office of Communications, Ofcom)身為BEREC的會員,但英國已非歐盟會員,Ofcom是否會提出適用英國自己的網路中立性規範,以及歐盟各會員國對於該指南的適用狀況值得繼續追蹤。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP