英國政府許可利他的研究用途卵子捐贈

  主管英國生殖醫療及胚胎研究事務的人工授精暨胚胎管理局(The Human Fertilisation and Embryology Authority, HFEA)在考量過包括對捐贈婦女的風險以及公眾意見的諮詢後,於今(2007)年2月21日正式對外宣佈一項關於研究用途卵子捐贈的方案,當中提出有力的安全措施確保婦女在捐贈過程中會被正確的告知其風險,並強制地獲得適當的保障。管理局許可婦女捐贈其卵子以供研究之用,包括利他的卵子捐贈,以及接受試管受精醫療後所剩餘的卵子捐贈,而這是英國政府首度許可非接受生殖醫療的婦女可以為提供研究之用進行卵子捐贈。

 

  HEFA強調研究用途卵子捐贈在程序上將有更明確的安全措施。這些安全措施包括清楚的區分研究人員及施行該婦女醫療的人員、關於實際上研究後果的詳細資訊、捐贈將產生的影響,以及要求獲得捐贈婦女在不受研究團隊干擾下的同意。這些安全措施將可有效避免女性捐贈者在被脅迫、被詐欺或是被誤導下做出捐贈卵子的決定。同時,婦女亦不能藉由捐贈卵子而獲得報酬,捐贈者只能要求一筆因捐贈所實際產生費用的補償(250英鎊,約16000元新台幣)。

 

  雖然HEFA認為研究用途捐贈卵子的婦女將得到管制部門嚴密而強力的保障,並且不預見在這個特殊的研究領域會有魯莽的應用,但是部分專家對此並不贊同。位於英國倫敦的國王學院幹細胞研究學者Stephen Minger博士即認為目前使用人類卵子進行的研究工作仍未成熟,這項過早提出的方案會鼓勵婦女去提供她們的卵子來進行研究,而鼓勵這種情況的發生仍是太早了。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國政府許可利他的研究用途卵子捐贈, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1698&no=64&tp=1 (最後瀏覽日:2026/01/23)
引註此篇文章
你可能還會想看
中國大陸重新核定農業轉殖基因安全評估試驗收費標準

  中國大陸國家發展改革委員會及財政部重新核定農業轉殖基因安全評估試驗收費標準,擴大相關試驗範圍,並於去(2005)年12月29日公告實施,有效期2年,而農業部2003年的第303號公告同時廢止。2003年的公告僅針對「環境安全檢測」與「食用安全檢測」訂定收費標準,但是隨著基改作物種植面積與種類逐年增加,因此增列了中間試驗、環境釋放、生產性試驗在進行安全評價時,也需要收取相關費用。

日本公布第6期科學技術與創新基本計畫草案並募集公眾意見,著重疫情與科技基本法修正後之因應

  日本內閣府於2021年1月20日發布「第6期科學技術與創新基本計畫」(科学技術・イノベーション基本計画,以下稱第6期科技創新基本計畫)草案,並自即日起至同年2月10日,對外徵求公眾意見。依2020年6月修正通過之日本科學技術與創新基本法(科学技術・イノベーション基本法,預定2021年正式公告施行)第12條規定,要求政府應就振興科學技術與創新創造的政策,擬定基本計畫並適時檢討調整,同時對外公告。而本次草案的提出,便為因應現行的第5期科學技術基本計畫即將屆期,啟動擬定下一期基本計畫。   依草案內容,第6期科技創新基本計畫延續Society5.0的願景,並以數位化及數位科技作為發展核心。但檢視至今的科技創新政策成效,數位化進程不如政策目標所預期;受COVID-19疫情影響,也提升了科技普及化應用的重要性。另一方面,科學技術基本法的修正,則揭示了人文社會科學與自然科學跨域融合運用的方向,並期待藉由創新創造納為立法目的,實現進一步的價值創造。基此,第6期科技創新基本計畫提出,應從強化創新、研究能量及確保人才與資金的三方向為主軸,結合SDGs、數位化、資料驅動及日本共通在地價值,建構出「日本模型」(Japan Model)作為實現Society5.0的框架。   針對如何強化創新能力、研究能量及確保人才與資金,計畫草案提出以下方向: (1)強化創新能力:整體性強化創新生態系(innovation ecosystem),建構具韌性的社會體系,並有計畫地推動具社會應用可能的研發活動。具體作法包含藉由AI與資料促成虛擬空間與現實世界的互動優化、持續縮減碳排放量實現循環經濟、減低自然災害與傳染病流行對經濟社會造成的風險、自社會需求出發推動產業結構走向創新、拓展智慧城市(smart city)的應用地域等。 (2)強化研究能力:鼓勵開放科學與資料驅動型之研究,並強化研究設備、機器等基礎設施的遠端與智慧機能,推動研究體系的數位轉型;以資料驅動型為目標,多元拓展具高附加價值的研究,包含生命科學、環境、能源、海洋、防災等領域;擴張大學的機能,如增進大學的自主性,從經營的角度調整與鬆綁國立大學法人的管理與績效評鑑方式等,用以厚植創新基底。 (3)人才培育及資金循環:目標培養具備應變力與設定議題能力的人才;同時藉由資助前瞻性研發,結合大學的基礎科研成果,激發創新的產出及延伸收益,並回頭挹注於研發,建立研發資金的循環運用體系。

歐盟將公布精準醫療國際合作發展倡議

  歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。   歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。   為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備   IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

TOP