桃莉羊誕生十年 複製技術之醫療運用距收成階段仍遙遠

  十年前的 7 5 ,全世界第一隻複製的哺乳類動物桃莉羊在英國誕生。 複製羊成功的案例,吸引了如潮水般的錢潮,流入探索利用這項新技術的領域,諸如有關治療癌症、心臟病、阿茲海默症和其他嚴重疾病的研究。科學家應用在姚莉身上的技術是屬於「細胞核轉置技術」( SCNT ),簡言之,是把卵子的細胞核取出,然後把身體細胞的細胞核放入這個卵子中。在這個新建構的卵子中,只有來自身體細胞的染色體,而沒有原卵子的染色體,新卵子中僅含有提供身體細胞者的基因組,所以稱之為「複製」。科學複製有很大的潛在風險,代價又高,但它對醫學研究仍有很大的貢獻,其中最引人注意的,就是可取得胚胎幹細胞。


  幹細胞是一群尚未完全分化的細胞,同時具有分裂增殖成另一個與本身完全相同的細胞,以及分化成為多種特定功能的體細胞兩種特性,在生命體由胚胎發育到成熟個體的過程中,扮演最關鍵性的角色。研究人員相信未來可以利用幹細胞,修復或是更換受傷或是病變的器官中的細胞或組織,特別是利用有患者自己基因的幹細胞組織移植,可以避免免疫系統的排斥現象。



  當年科學家複製桃莉羊時所抱持之野心不小,然而這十年來,科學家們並沒有能夠達成以幹細胞治療人類疾病的目標,雖然因複製
技術本身具有高度爭議性,許多國家已立法予以規制,然卻依舊無法避免如 前首爾大學教授黃禹錫偽造幹細胞研究成果的醜聞發生,這項醜聞使原本即因幹細胞研究和倫理會產生衝突而不易獲得公私部門經費支持的研究工作,更為雪上加霜。


  英國胚胎學者指出,回顧過去醫學研究史上的新發現,不論是試管嬰兒或是其他的技術,從第一次到最後技術完全成熟階段,都需要花很長的時間一步步完成,未來可能還需要五十年的時間,複製技術對醫學的貢獻才可能到達豐收階段。

相關連結
※ 桃莉羊誕生十年 複製技術之醫療運用距收成階段仍遙遠, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=67&tp=1&d=448 (最後瀏覽日:2025/07/04)
引註此篇文章
你可能還會想看
德國聯邦網路局(Bundesnetzagentur)法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)提出OTT服務法制規範意見報告

  德國聯邦網路局(Bundesnetzagentur) 法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)於2015年11月18日提出「在OTT服務業者重要性提升背景下電信與媒體法制演變進程」意見報告(Evolution der Regulierung in den Telekommunikations- und Mediensektoren angesichts der Relevanzzunahme von OTT-Anbietern)。此報告針對OTT服務提出以下建議: 1. 是否電信服務(Telekommunikationsdienst)定義僅侷限於「電子信號的傳送」。倘若如此,是否亦須將OTT-I類型服務,亦即網路語音通話或電子郵件服務(例如:Skype, Gmail等),如同歸類並視電信服務而所規範。基於OTT-I服務的性質跟傳統通訊服務相似度很高(例如電話通訊服務),因此是否傳統電信服務定義須要涵蓋OTT-I服務,仍待明確的法制規範。 2. 倘若OTT-I種類的服務被歸類為「電信服務」,依此邏輯是否須要遵守德國電信法(Telekommunikationsgesetz)相關的傳統電信服務義務,像是緊急電話撥打義務、消費者保護、通訊隱私保障、資料保護等,仍待明確的法制規範。 3. 透過OTT服務所蒐集到的資料,均需透過明確的授權規範才得以讓OTT服務提供者有足夠的權限商業性的應用該資料。 4. 在OTT-II服務,亦即內容提供服務(Inhaltdienste)業者快速成長的背景下(例如Youtube,Netflix等),建議鬆綁歷來針對傳統影音媒體服務業者要求之嚴格廣告規範。 5. OTT-II內容平台需在公開網路上履行公平原則及反歧視原則。此原則亦應落實於終端設備使用者。 6. 支持歐盟資料保護規章的市場位置原則(Marktortprinzip)。 7. 電信法與媒體法在實體法上應更佳有所統合性。主管機關需符合憲法權限制訂法制規範,其規範亦必須符合其適當性(Zweckmäßigkeit)。

日本文部科學省發布產學合作研究成果歸屬合約範本【櫻花工具包】

  日本文部科學省於2002年提出產學合作契約範本,實行以來發現內容缺乏彈性,對於共同提交專利申請的共有專利權人能否進行商業化等研發成果歸屬問題規範不清。為此,2017年3月日本文部科學省科學技術及學術政策局參考英國智財局發布的Lambert toolkit等文件,提出11項合約範本,稱為【櫻花工具包】。   該工具的主要目標是期望產學合作從在意權利共有轉為重視研發成果商業化,提出包括大學或企業單獨擁有研發成果、雙方共有研發成果等多類型的合作契約模式,並解析如何從數種模式中選擇最適合的合約範本,盡可能在產學合作契約簽訂前,事先考量研究成果的商業化策略,從而提高研發成果商業化的可能性。當中建議,在進行模型選擇時需考慮以下因素: 對研發成果的貢獻程度。 智財權歸屬於大學的處理方法。 是否有必要通過大學發布研究成果。 研究成果歸屬(大學擁有、企業擁有、雙方共有)。 雙方是否同意智財權共有。   此外,為了盡可能使研究成果的智財權更廣泛應用,在參考適用範本時,皆應考量研發成果商業化的靈活性,無論智財權歸屬於大學或企業方,都必須滿足以下的條件: 不限制大學後續研究的可能性。 所有的智財權都要適當的努力使其商業化。 研究成果需在約定的期間內進行學術發表。   日本此一工具包之內容對於產學合作研究之推展,提供了更細緻化的指引,或許可為我國推行相關政策之參考,值得持續關注其內涵與成效。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

TOP