英國正式提出人類組織與胚胎法草案

  英國可算是對人類胚胎研究最積極的國家之一,目前其胚胎相關研究係根據「人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)及「人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,並授權「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)加以管理。

 

  然面對胚胎研究日益多樣化,英國健康部於今(2007)年5月正式提出「人類組織與胚胎法草案」(Human Tissues and Embryos (Draft)Bill,以下簡稱草案),期能加強現有管理體系並促進相關技術之發展,而草案特別針對體外受精(in vitro fertilization)及胚胎研究之相關規定,作一徹底檢視及翻修。

 

  進一步觀察,胚胎儲存、胚胎篩選、精卵捐贈及主管機關均屬草案規定範圍,另近來於英國國內討論熱烈的人類動物混合胚胎議題,亦於草案中有所規定,草案准許三種類型之人類動物混合胚胎得以被製造,分別是:將動物細胞注入至人類胚胎中、將動物DNA注入至人類胚胎中及將人類細胞核植入動物卵子中等。至於人類精卵與動物精卵之結合,則是被禁止之行為。

 

  草案後續將送交國會專門委員會審查,但由於草案涉及極為爭議的人類動物混合胚胎議題,社會輿論的壓力及保守派議員會產生何種影響,值得持續關注。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國正式提出人類組織與胚胎法草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2246&no=64&tp=1 (最後瀏覽日:2026/02/23)
引註此篇文章
你可能還會想看
電信產業號碼資料庫之應用與法制議題-以個人隱私保護為中心

英國數位、文化、媒體暨體育部發布資料道德與創新中心公眾諮詢

  英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年6月13日發布有關資料道德與創新中心(Centre for Data Ethics and Innovation)之公眾諮詢,本次諮詢將於2018年9月5日截止。   在資料使用與人工智慧皆快速發展且對生活模式產生重大改變之背景下,英國政府認為企業、公民以及公部門對於資料及人工智慧的安全及道德創新都需要有明確規範以資遵循,以因應該領域快速發展而生的問題。為此,英國政府欲新建一個資料倫理與創新中心,該中心本身並不會對於資料及人工智慧的使用作出規範,主要係通過吸收各界的經驗及見解,統整這些經驗或見解並轉化為對政府現行監管方面缺陷之建議,該中心具有獨立諮詢之地位(independent advisory status),提供政府對資料及人工智慧相關議題之治理建議。   諮詢文件內指出中心作用及目標旨在提供政府政策指導,並與監管機構、研究機構、公民社會密切合作,以制定正確的政策措施;對於中心的活動及產出,政府認為中心可進行對於資料及人工智慧的分析及預測,並擬定最佳實務作法(如開發有效及合乎道德的資料及AI使用框架),進而向政府提供有助資料及人工智慧之安全及道德創新發展的相關建議。   本次公眾諮詢主要針對資料道德與創新中心之營運方式及重點工作領域徵詢意見,所提出問題大致上包括是否同意中心目前的職責及目標?中心該如何與其他機構進行合作?中心應採取哪些行動?是否同意目前建議的行動類型?中心需要哪些法定權力?中心如何向政府提交建議?是否應將中心提交之建議向大眾公開?   我國行政院於今(2018)年1月18日提出為期4年之「台灣AI行動計畫(2018-2021)」,計畫內容之五大重點為:(1)AI領航推動;(2)AI人才衝刺;(3)建構國際AI創新樞紐;(4)創新法規、實證場域與資料開放;(5)產業AI化,其中,第4點細部內容提及將建立高資安防護及親善介面之資料開放與介接平台,顯見我國政府正全力推動AI發展,亦對資料開放相關議題頗為重視。是以,英國資料道德與創新中心之發展在未來我國推動AI普及與產業AI化之進程上,似可提供我國參考方向,以健全AI發展之法制環境。

我國遊戲軟體著作權爭議探討

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP