中國將對幹細胞臨床研究及應用研擬管理規範

  為妥適管理中國幹細胞醫療產業,中國衛生部下令停止未經許可之幹細胞臨床研究和應用行為,並展開為期一年的幹細胞臨床研究和應用規範整頓工作。此期間分為「自查自糾」、「重新認證」和「規範管理」等階段。中國衛生部及國家食品藥品監督管理局(以下簡稱食品藥品監管局)辦公室於今年(2012年)1月6日發布一份名為《關於發展幹細胞臨床研究和應用自查自糾工作的通知》之部門規章,明白揭示於「自查自糾」階段各省、自治區及直轄市之衛生廳局及食品藥品監督管理局應如何辦理。

  該通知中要求全國各級各類從事幹細胞臨床研究及應用之醫療機構及相關研究單位應依照《藥物臨床實驗質量管理規範》及《醫療技術臨床應用管理辦法》之規範進行自查自糾工作,如實總結並填寫幹細胞臨床研究和應用自查情況調查表,報告已完成或刻正進行之幹細胞臨床研究和應用活動;另外一方面,中國衛生部及食品藥品監管局及各省、自治區及直轄市將分別組成工作領導小組及工作組,制定自查自糾工作方案。針對尚未經批准之幹細胞臨床研究和應用,於通知文件中明白揭示應予停止;已經批准者,亦不得任意變更臨床試驗方案,或自行變更為醫療機構收費項目。值得注意者,為整頓對幹細胞臨床研究及應用之管理,並研擬符合國內需求之管理機制,直至今年7月1日前,相關主管機關將不受理任何申報項目。

  中國截至目前為止,尚未針對幹細胞技術之臨床實驗或應用做成法規或政策,僅適用一般性藥品法規,相較於國際間先進國家屬相對鬆散。中國衛生部及食品藥品監管局於近日做成之通知文件顯示了中國政府開始對於幹細胞臨床實驗及應用之規範面向有所重視,針對其後續衍生之管理規範值得我們持續追蹤關切。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 中國將對幹細胞臨床研究及應用研擬管理規範, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5615&no=64&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
Google Android作業系統在歐盟被控違反競爭法

  Google最近因他的Android作業系統,遭到其競爭對手向歐盟競爭法主管機關檢舉違反競爭法。以FairSearch.org為代表、Nokia、Microsoft及Oracle在內的Google競爭對手指控,Google企圖利用他的Android系統作為”特落伊之馬”(Trojanisches Pferd),以獲得行動業務的獨占地位並據以控制使用者資料。這是因為Google要求智慧型手機和平板電腦的製造商若要使用一些受歡迎的Google應用程式,如Google Maps或YouTube時,必須連同一系列其他的Google應用程式,一起放在這類行動設備的桌面上明顯位置。這項要求被競爭對手認為已影響到其他App提供者,且讓Google擁有隨時透過製造商銷售出的智慧型手機,掌控大量的用戶資料的能力。   此外,FairSearch.org也主張,因Google以不符成本的方式推廣他的Android作業系統,此舉讓其他作業系統的提供者難以回收投資。目前Google的Android作業系統已經在智慧型手機服務市場擁有獨占地位--其市場佔有率約為70%;在平版電腦的服務市場上,Android作業系統的佔有率也在增加之中。因此,歐盟執委會應對Google這些在行動市場上的不當行為展開嚴格調查,以避免歐洲的消費者因Google濫用市場的行為而受到損害。事實上FairSearch.org已經不是第一次指控Google違反競爭法,在此之前,FairSearch.org就曾向歐盟檢舉Google的搜尋引擎業務違反歐盟競爭法,其被指控就其搜尋引擎的搜尋結果,涉嫌對自己提供的服務提供優惠的差別待遇。歐盟在2010年11月正式對此展開調查,該案調查現已近尾聲,歐盟對此的立場傾向要求Google在他的搜尋結果應清楚地說明哪些是屬於Google集團的服務以作為標示。至於最新有關Android作業系統的指控,歐盟已表明會以放大鏡檢視,但歐盟是否會正式調查或將兩案合併審理,尚不清楚,Google也還未針對有關Android作業系統的指控做出回應。

淺談美國建築能源科技法制政策發展近況

第三方支付法制問題研析

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP