哈佛研究者以私募基金展開人類胚胎複製

  哈佛大學的醫學研究人員最近公開表示,他們已經展開複製人類胚胎、創造幹細胞的工作,由於布希政府在數年前即已頒布禁令,禁止聯邦政府資助新的幹細胞系,故哈佛幹細胞研究所的這項計劃將以私人募集的基金進行。


  人類胚胎幹細胞的研究一直具爭議性,因為抽取細胞需要破壞人類胚胎。哈佛幹細胞研究計劃以創造特定疾病的幹細胞系為目標,希望研發出多種不治之症的療法。哈佛大學認為這項計劃的潛在好處,大於人類生命神聖遭挑戰的關切,蓋其長期目標是,創造從病患細胞組織取得的胚胎幹細胞,修正基因缺陷,將修復細胞植回病患體內。校長薩默斯在聲明中說:「雖然我們了解且尊重反對此項研究者所持的信念,我們同樣誠摯地面對我們的信仰,相信攸關無數受苦孩童與成人生死的醫學需要,賦予這項研究繼續前進的正當性。」

相關連結
※ 哈佛研究者以私募基金展開人類胚胎複製, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=444&no=57&tp=1 (最後瀏覽日:2026/03/03)
引註此篇文章
你可能還會想看
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

美民主黨提案開放網路賭博

  美眾議院金融服務委員會主席Barney Frank於4月26日提案撤銷國會去年備受爭議的禁止網路賭博法案,取而代之制定聯邦層級規範架構的「網路賭博規範與執行法案」(Internet Gambling Regulation and Enforcement Act ),以核准賭博公司線上收取美國國民賭金,並對未成年人、強迫性賭博、洗錢與詐欺等須採取保護措施。   布希總統去年十月所簽署通過的法律,要求銀行與信用卡公司拒絕付款給美國司法管轄權外約2300家的賭博網站,造成賭博業的空前危機。Frank在個人網站批評,〝此法律是對美國人身自由的不當的干預〞。壓力不止於此,WTO也稍早議決美國的此限制不合法,因為某些國內的活動如賽馬,排除外國的公司而形成差別的對待。   Frank 所提的新法案將禁止發執照給任何涉嫌違反賭博、洗錢與詐欺或其他金融法等罪行者,且執照的審理與取得將透過財政部防制洗錢法的協助。而未來消費者上網站必須提供姓名、地址、出生日期與相關身分證明號碼,以和線上支付系統作資料核對。   投資公司Friedman Billings Ramsay認為美國國庫預計五年可增加兩億美金的賭博稅收。

英國政府提出線上盜版刑期從2年延長10年

  英國政府提議將網路盜版者的有期徒刑從2年調整到10年的法律修正案,假使這修正案被批准,將會使網路著作權侵權刑責與實體侵權的刑責趨於一致。   英國智慧財產局公開了諮詢文件,提到利益人希望調整網路侵權的刑事制度,提高為10年的有期徒刑的訴求。英國政府同意網路著作權侵權導致的嚴重損害不少於實體盜版侵權的損害。此項修正案的嚴刑峻罰對於網站擁有者的影響將大於個人侵權者。政府文件指出,此修正案特別針對設法透過網路廣告和訂閱費用獲利的犯罪活動。   英國的智慧財產部長Baroness Neville-Rolfe說道,創意產業帶動超過7萬億經濟價值,應著重保護創意產業遠離網路犯罪集團。對於商業規模的網路犯罪行為採取嚴峻的刑罰,將可提供產業更大的保護,並可明確傳遞清除犯罪的決心以嚇阻罪犯。   政府針對諮詢文件提供六周的時間供個人和組織對此已知的提案提供意見,一旦政府進一步對此議題的回應進行評估與審查,可預期未來幾個月即可獲知此法律修正案最終的決定。 將網路侵權的刑期提高到10年已經是第二次推動,在2005年Gowers智慧財產權審查報告中已經提議提高刑責2年到10年,但在當時政府拒絕此項提議,因為當時政策僅針對嚴重或危險的罪犯處以監禁服刑。

TOP