英國對人類生殖及胚胎法案之檢討進行公眾諮議

  英國政府於 8 16 日宣布,對 1990 年所公布人類生殖及胚胎法案( the Human Fertilisation and Embryology Act 1990, the HFE Act )之檢討,展開公眾諮議活動,本項諮議活動將持續至今年 11 25 日。


  本項諮議活動,源自於英國政府意識到該項法案雖然為英國的人類胚胎相關技術的研發提供了穩健的法制基礎,但隨著科技的進步,該項法律早已跟不上時代的腳步,甚至形成阻礙;有鑑於此,英國政府於 2004 1 月公布檢討上述法案,這項檢討包括預定在 2005 舉行公眾諮議活動( consultation ),希望夠過公眾參與獲得各界對上述法案的批評與建言,一方面建立公眾對相關科技的信心,一方面檢視該法是否仍適合英國 21 世紀初期的需求,並其建立一套為社會廣泛所接受的規範架構。本項諮詢的主要議題,包括了為醫療目的而選取胚胎之相關管控規範、供研究目的用之胚胎的定義與 粒線體遺傳疾病( mitochondrial disease )研究之規範。 根據英國健康部在其網站上發表的文件指出,這項檢討希望參酌科技的進展、社會態度的轉變、國際相關科技的發展與對可確實有效之法規的需求。


  這項活動引起了英國下議院科技委員會( the House of Commons Science and Technology Committee )對生殖科技( reproductive technologies )與相關法律的注意,並對此做出回應。科技委員會建議,未來的修正應不會對胚胎重新定義,而是將焦點放在何種胚胎適合移植,何種胚胎可提供研究。委員會更建議,因粒腺體遺傳疾病研究,而造成基因結構改變之細胞成為胚胎的一部份的情形,應加以禁止。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國對人類生殖及胚胎法案之檢討進行公眾諮議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=410&no=57&tp=1 (最後瀏覽日:2026/03/29)
引註此篇文章
你可能還會想看
日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

美國最高法院判決單離DNA片段不具專利標的適格性

  2013年6月13日美國最高法院(the Supreme Court of the United States)就備受矚目之Association for Molecular Pathology v. Myriad Genetics, Inc.一案做出判決,認定如乳癌易感基因BRCA1、BRCA2等經單離(isolated)的人類DNA片段不具美國專利法第101條(35 U.S.C. §101)所規定之專利標的適格性。   美國最高法院指出,雖然專利權人發現了BRCA1與BRCA2基因的位置與序列,但是其並未創造或改變BRCA1與BRCA2基因上的任何遺傳資訊,亦並未創造或改變該DNA片段的基因結構,所以即使其是發現了一個重要而有用的基因,但僅是將其從周遭其他基因材料中分離出來,並非為一項發明行為。亦即是說,突破性、創新或卓越的發現並不必然符合美國專利法第101條之要件要求。   不過,美國最高法院認為,cDNA片段可以具備專利標的適格性,因為其為從mRNA所創造出來、僅具備外顯子(exons-only)的分子,而非自然發生之自然產物。然而美國最高法院對於cDNA是否符合其他可專利要件之要求並不表示意見。   美國最高法院亦強調,本案判決並未涉及任何方法發明,亦未就將有關BRCA1與BRCA2基因之知識予以應用的發明做出判斷,且未判斷自然發生之核苷酸順序經改變的DNA片段是否具備專利標的適格性的問題。

瑞典網路服務提供者(ISP)之責任

  瑞典斯德哥爾摩地方法院於2015/11/27針對網路服務提供者(ISP)責任作出判決,有別於過往相關著作侵權訴訟,對象係針對個人或是散布侵權檔案之網站經營者,此次為針對網路服務提供者責任作成的第一筆判決,其結果具有指標性意義。   此次訴訟是由華納、新力、聯合音樂、北歐電影與瑞典電影中心聯合提起,請求法院命一瑞典ISP業者阻斷二個涉及著作權侵害之網站連結。原告等聲稱被告提供網路連接到侵權網站之行為,已構成侵害行為的參與(medverkar),據此請求法院禁止被告繼續此參與侵害行為。然法院未予採納,認為:(一)依歐盟指令(Infosoc-directivet)之要求,若網路中介者之服務受到第三人利用,作為侵害著作權及其鄰接權之用途,各會員國須提供著作權人司法救濟途徑,以對抗中介人。由於瑞典著作權法已提供禁制令(föreläggande)之申請予著作權人,藉此對抗參與侵害行為的幫助犯。可見瑞典著作權法已符合指令之要求。(二)其次,法院認定本案被告係單純提供其顧客網路聯結到侵權網站,不構成瑞典著作權法上之參與侵權行為。因所謂參與必須是客觀上對侵權行為人有幫助行為(如給與建議及諮詢),但本案被告並未與侵權網站有任何契約或特定關係,不能因為少部分之非法使用者利用其網站連結便認定其構成參與侵權行為。故法院認定本案不具備核發禁制令條件,駁回原告等請求。對此,原告擬提出上訴,後續發展有待觀察。

歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。

TOP