中國將對幹細胞臨床研究及應用研擬管理規範

  為妥適管理中國幹細胞醫療產業,中國衛生部下令停止未經許可之幹細胞臨床研究和應用行為,並展開為期一年的幹細胞臨床研究和應用規範整頓工作。此期間分為「自查自糾」、「重新認證」和「規範管理」等階段。中國衛生部及國家食品藥品監督管理局(以下簡稱食品藥品監管局)辦公室於今年(2012年)1月6日發布一份名為《關於發展幹細胞臨床研究和應用自查自糾工作的通知》之部門規章,明白揭示於「自查自糾」階段各省、自治區及直轄市之衛生廳局及食品藥品監督管理局應如何辦理。

  該通知中要求全國各級各類從事幹細胞臨床研究及應用之醫療機構及相關研究單位應依照《藥物臨床實驗質量管理規範》及《醫療技術臨床應用管理辦法》之規範進行自查自糾工作,如實總結並填寫幹細胞臨床研究和應用自查情況調查表,報告已完成或刻正進行之幹細胞臨床研究和應用活動;另外一方面,中國衛生部及食品藥品監管局及各省、自治區及直轄市將分別組成工作領導小組及工作組,制定自查自糾工作方案。針對尚未經批准之幹細胞臨床研究和應用,於通知文件中明白揭示應予停止;已經批准者,亦不得任意變更臨床試驗方案,或自行變更為醫療機構收費項目。值得注意者,為整頓對幹細胞臨床研究及應用之管理,並研擬符合國內需求之管理機制,直至今年7月1日前,相關主管機關將不受理任何申報項目。

  中國截至目前為止,尚未針對幹細胞技術之臨床實驗或應用做成法規或政策,僅適用一般性藥品法規,相較於國際間先進國家屬相對鬆散。中國衛生部及食品藥品監管局於近日做成之通知文件顯示了中國政府開始對於幹細胞臨床實驗及應用之規範面向有所重視,針對其後續衍生之管理規範值得我們持續追蹤關切。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 中國將對幹細胞臨床研究及應用研擬管理規範, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5615&no=64&tp=1 (最後瀏覽日:2025/12/31)
引註此篇文章
你可能還會想看
美國國家公路交通安全管理局發布自駕車安全性評估相關法規預告

美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)於2025年1月15日發布「配備自動駕駛系統車輛之安全、透明度及評估計畫」(The ADS-equipped Vehicle Safety, Transparency, and Evaluation Program , AV STEP)法規預告(Notice of proposed rulemaking, NPRM),建立全國性自願評估與監督制度,以提高自駕車安全性之公共透明度,並促進其負責任布建。 根據《國家交通與機動車輛安全法》(National Traffic and Motor Vehicle Safety Act),自駕車在符合〈聯邦機動車輛安全標準〉(Federal Motor Vehicle Safety Standards, FMVSS)及州、地方法律的前提下,得於公共道路上行駛;若無法符合FMVSS之要求,則需進行豁免申請。惟不論採何種途徑,FMVSS皆未針對自駕車之安全性與性能進行評估,因此NHTSA提出AV STEP,為自駕車設計專門之豁免申請途徑,並針對不同自動化程度車輛提出涵蓋車輛設計、開發與運行之安全性審查條件,以對現行FMVSS之豁免規定進行補充。簡要說明如下: (1)需配置駕駛人之自駕車:需具備手動駕駛功能與清晰的交接程序,以於自駕系統失效時透過充分提示與反應時間,使駕駛人接管操作。 (2)完全由自駕系統操作之自駕車:監管著重於各種情況下皆能自主運作、回退(Fallback)機制需具遠端監控能力,且能自動進入最小風險狀態。 除上述要求外,申請者皆須提供第三方機構之獨立評估報告、說明自動駕駛系統故障之應對措施,並持續接受NHTSA監督。

德國因應歐盟一般資料保護規則(GDPR)之通過,即將進行該國資料保護法(BDSG)修正

  德國聯邦資訊技術,電信和新媒體協會(bitkom)於2016年9月2日釋出將以歐盟新制定之一般資料保護規則(GDPR)內容為基礎,調整德國聯邦資料保護法(BDSG)之修法動向。   德國政府正在緊鑼密鼓地調整德國的資料保護立法,使之與歐盟GDPR趨於一致。已知未來將由“一般聯邦資料保護法”取代現行的聯邦法律。草案內容雖尚未定稿,但修正方向略有以下幾點:   首先,德國未來新法不僅參考GDPR、也試圖將該法與GDPR及歐盟2016年5月4日公告之歐盟資訊保護指令Directive(EU)2016/680相互連結。該指令係規範對主管機關就自然人為預防,調查,偵查等訴追刑事犯罪或執行刑事處罰目的,處理個人資料時的保護以及對資訊自由流通指令。   其次,新法將遵循GDPR的結構,並利用一些除外規定,如:在資料處理時企業應指派九人以上資料保護官(DPO)的義務。某些如通知當事人的義務規定,亦有可能在存有更高的利益前提下,限縮其履行範圍。此意味某些通知義務有可能得不適用,例如履行該義務需要過於龐大人力、資金支出、耗費過多等因素。   第三,聯邦法律將保留一些規定,如上傳給信用調查機構的條款、雇傭契約中雇用方面處理個人資料的條款,以及在公眾開放地區使用電子光學裝置監視的條款等。   最後,立法修正動向值得注意的重點尚有,(1)未來德國立法者將如何應對新的歐洲資料保護委員會(EDPB)中德國代表的地位(represe。由於EDPB將發布具有約束力的決定,針對爭議內容的決定意見,德國內部顯然應該統一意見。蓋因迄今為止的德國聯邦資料保護監察官(17個)經常提出不同的見解。此外,(2)還應該觀察聯邦資料保護監察官是否應該賦予權限,向法院提出對歐盟爭議決定或法律救濟,使案件進入德國法院,以爭執歐盟執委會所為之決定是否具備充足理由。前此,德國聯邦參議院(代表十六邦)2016年5月已要求聯邦政府引進新規定,使資訊監察保護官有請求法院救濟之權。這項源於安全港協議判決的討論,將來有可能提供德國資料保護監察官,挑戰隱私盾協議的可能性。但新法案是否會解決這一問題,這還有待觀察。   可預見在2017年9月下一屆德國聯邦議會選舉前,將通過法案。

OECD氣候行動監測與科學技術之挑戰

  經濟合作與發展組織(Organisation for Economic Co-operation and Development,簡稱OECD)於2022年11月7日發布《2022年氣候行動監測 幫助各國邁向淨零碳排》(The Climate Action Monitor 2022 Helping Countries Advance Towards Net Zero),係由國際氣候行動計畫(International Programme for Action on Climate,簡稱IPAC)團隊撰擬,提供全球氣候行動的重要見解。   IPAC提出之分析方法係本於OECD與聯合國環境規劃署(United Nations Environment Programme,簡稱UNEP)的「壓力–狀態–回應」(Pressure-State-Response,簡稱PSR)環境指標模型。與政策回應相關的潛在限制與障礙,可區分為四個關鍵領域:1、治理:有效率的執行脫碳政策或需有新的治理框架;2、關鍵材料:脫碳政策需使用的關鍵材料如銅、鋰等;3、技能、技術與創新:回應氣候變遷政策需個人和機構有新的能力和技術;4、財政:以政策回應需有充足的資金。   推動淨零在科學技術上面臨的挑戰為關鍵材料的應用。相較於化石燃料,綠能技術需更多的材料;特別是應用於電力系統的銅和鋁,或應用於電池的鋰、鈷和石墨。稀土對於風力發電機、電動與混合動力汽車、行動電話、電腦硬體、平面顯示器和電視機為重要材料。惟此些關鍵材料的取得集中於極少數的國家,以致於供應鏈易受單邊衝擊的影響,而使價格飆升,阻礙轉型。原材料占綠色技術大部分的成本,而緊張的材料市場可能會阻止對綠色技術的使用。氣候計畫與公告需考量關鍵技術的風險,實踐可信且穩定的淨零碳排,需於全球開發新的資源、新型的加工製程,與加速投資。並藉由新技術,與發展特定材料的回收鏈,以減緩對取得材料的依賴。   OECD提出「福祉透視」(the Well-Being Lens)的流程,以協助各國確認與考量淨零轉型的優先政策。此過程的步驟為:1、預設若為運作良好的系統所能達成的成果;2、理解現行系統無法達成的原因,以及如何重組和設計系統;3、確認行動與政策對於改善系統運作具有潛力。   本文同步刊登於TIPS網站(https://www.tips.org.tw)

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

TOP