澳洲開放醫療性複製

  去(2006)年12月6日,澳洲眾議院核准之前參議院所通過的人類胚胎複製解禁法案,此法案由前健康部長亦是現任參議員Kay Patterson所提出,由於投票所涉及議題過於敏感,故各政黨開放其所屬議員自由投票,最終結果為贊成82票,反對62票。解禁法案主要是准許醫療性複製,但複製出來的胚胎不得植入子宮,且需於14天內被破壞或銷毀。另外,Kay Patterson表示,解禁法案將於健康及科學主管機關草擬卵子捐贈與研究授權指導方針的六個月後,開始施行。最後,此一修法應於3年後接受檢視。

 

  目前澳洲與複製技術相關之法規有:人類複製禁止法(Prohibition of Human Cloning Act 2002)及人類胚胎研究法(Research Involving Human Embryo Act 2002)。人類複製禁止法顧名思義,即不允許任何形式的人類複製,而禁止項目包括:製造人類複製胚胎、將人類複製胚胎植入人類或動物體內、進出口人類複製胚胎………等等。前述修法通過後,澳洲國內將可進行為醫療目的之複製胚胎行為,為其國內胚胎幹細胞發展開一扇窗。

 

  近年來,由於複製技術及胚胎幹細胞研究正逐漸成為顯學,加上醫療應用潛力極大,故即使於社會輿論壓力下,仍有許多國家修立法准許醫療性複製,包括:瑞典、英國、韓國等等。澳洲這次的修法,是否代表全球對於複製技術規範之態度有了某種程度之轉變?值得持續觀察。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 澳洲開放醫療性複製, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1042&no=55&tp=1 (最後瀏覽日:2026/02/21)
引註此篇文章
你可能還會想看
歐盟立法成員對整體生質燃料目標仍存有不同意見

  為確認是否採行歐盟整體生質燃料目標(即於2020年應達20%)而欲進行協商之前夕,歐洲各政黨團體立法成員們間,對於設定環境永續性基準與將用以種植生產生質燃料作物土地等方面之意見,至今仍分歧不一。   鑑於歐洲環保團體紛盼能儘快看見那些未來將被間接利用來生產生質燃料之土地,其可一併被涵括在正式評估公式之內,來評估對整體CO2濃度影響;因此,各會員國遂轉而朝向歐洲執委會,要求其應提出詳細之規則,並希望能在將相關基準納入整體法律架構之前,完成對間接利用土地所產生衝擊之評估方法與標準的建立。   環保團體代表Turmes指出,日前執委會對歐洲議會所提出之建議提案,已表達其意見並且認為:由於對間接利用以生產生質燃料之土地其未來將對CO2排放產生衝擊方面,尚未獲得足夠之科學性證據來做為日後評估之參考;因此,就整體生質燃油利用之最終版本而言,其認為需將「新方法學」(new methodologies)部分一併納入,以填補前述科學性知識之缺口與不足。   另外,各會員國政府對歐洲議會所提出,要求透過未來利用生質燃料來達到減少碳排放目標時,至少應有40%之比例,需透過運用第二代生質燃料來達成之「附屬目標」(sub-targets),亦表示反對。目前各政府代表僅同意25%,而至於剩下之15%,則將留待後續協商時,再進行討論。   最後,Turmes指出,關於前述次要性目標之確定,歐洲議會將待解決間接利用土地問題後,再做更進一步之協商。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

Cell Therapeutics取得新藥專利

  生技公司 Cell Therapeutics Inc.(http://www.cticseattle.com/) 於週ㄧ (04.10.2006) 表示該公司已取得新的抗腫瘤藥物專利。   該件由美國專利暨商標局 (U.S. Patent and Trademark Office) 核准,並且為 Cell Therapeutic 之歐洲子公司所擁有之專利涵蓋了目前正進行臨床前測試的治療劑- CT-45099 ,以及其類似物,該治療劑屬於小分子的抗細胞骨架蛋白 (Tubulin) 藥劑。細胞骨架蛋白細形成微管 (Microtubule) 的主要成份,而 CT-45099 以及其類似物可藉由阻斷細胞骨架蛋白達到抵抗腫瘤的目的。   根據該公司表示,相較於其他腫瘤治療藥劑,如 TaxolR 以及 TaxotereR ,於細胞分裂時穩定細胞骨架蛋白並且防止其分解,以殺死腫瘤細胞; CT-45099 係於細胞分裂時阻斷細胞骨架蛋白的組裝,並且使細胞骨架蛋白處於不穩定的狀態,以殺死細胞。此外,該治療劑可被使用於治療結腸、肺、胃以及前列腺之腫瘤細胞株。   Cell Therapeutics 也表示,該新型抗細胞骨架治療劑並不容係受到多重抗藥性 (Multi-drug resistance, MDR) 的影響,而多重抗藥性是腫瘤細胞對標準化學療法所發展出的最常見抵抗方式之ㄧ。   Cell Therapeutics 所擁有的該專利預計在 2022 年 4 月到期。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP