美國藥品CGMP規範關於製劑部分修正之觀察

  美國食品及藥物管理局(Food and Drug Administration,FDA)於2008年9月8日針對現行優良藥品製造作業規範(Current Good Manufacturing Practice In Manufacturing, Processing, Packing or Holding of Drugs,藥品CGMP規範)中關於製劑的部分,公布了最新修正規則,並在同年的12月8日正式實施,希冀藉此能與其它FDA規範(例如:品質系統規範﹙the Quality System Regulation, 21 CFR part 820﹚)和國際性的CGMP標準(例如:歐盟CGMP規範﹙the CGMPs of the European Union﹚)相調和。

 

  本次修正係採漸進式,而非一次性的方式為之,主要針對無菌處理(aseptic processing)、石棉過濾裝置(asbestos filters)之使用、以及第二者驗證(verification by a second individual)等做修正。

 

  首先,針對無菌處理部分,要求設備及器具必須清潔、保養,且視藥品的本質不同,予以消毒和(或)殺菌,以避免故障或污染。對於可能遭微生物污染致影響其預定用途之原料、藥品容器或封蓋,要求應於使用前經過微生物檢驗。此外,尚新增生物負荷量測試(bioburden testing)於管制程序的列表中,以保障每批藥品之均一及完整性。

 

  其次,關於石棉過濾裝置之使用方面,回應一直以來所存在著將使用於生產液態注射劑產品(liquid injectable products)之過濾裝置規範更現代化的需求,本次修正明訂,於今後禁止使用石棉過濾裝置,同時,亦將石棉過濾裝置於非纖維釋出性過濾裝置的定義之中刪除。

 

  最後,有關第二者驗證部分,因應生產過程逐步自動化的潮流,本次修正於原有規範下增設規定指出,如以自動化設備執行秤重、測量、分裝、產量計算、設備清潔與使用記錄、生產與管控紀錄等之工作,且符合相關條文要求,並有一人檢查該設備是否如預設正常運作,則視為合乎原有規範下須有一人操作另一人檢查之規定。亦即修正後之執行,只需一人加以確認該自動化設備是否適當運作即為已足,毋須就過程中的每一步驟加以檢視,避免多餘人力之浪費。

 

  總括來說,本次修正確保法規確實涵蓋現行業界的操作實務,同時並確立FDA將藥品CGMP規範與以現代化,並與國際標準調和之目標,為以漸進方式修訂藥品CGMP規範跨出重要的一步。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國藥品CGMP規範關於製劑部分修正之觀察, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=2977&no=0&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
英國通過「隱私及電子通訊規範」

  英國於今年5月26日通過「隱私及電子通訊規範」(The Privacy and Electronic Communications Regulations),實現隱私監督之責,以管控cookies或是侵害個人資料之行為。     新法納入歐盟於2009年e隱私指令中所決定之改變,旨在讓網路使用者自行決定資訊服務業或其他事業能儲存多少使用者之紀錄。但業者對此項新要求表示困惑,因此英國之隱私權主管監督機關資訊專員公署(Information Commissioner's Office,ICO)最近出版一份指引,指導網站如何遵守新法使用cookies功能之規定及履行告知義務之要求。然而指引中並未強制規定告知內容與方式,因此業者仍可自行決定如何最有效地履行告知義務。     ICO本週表示新法尚有一年之緩衝期間,讓業者調整使用cookies功能之方式。政府表示目前仍在與瀏覽企業者討論,如何透過瀏覽器頁面之設置取得當事人之同意,而此部分尚未規定在新法中。     「政府的指引太晚公布了,並且缺乏明確性,又無法確定新法是否能允許以瀏覽器技術作為解決之方法,這樣會讓業界無所適從」,任職於Pinsent Masons法律事務所的科技法律專家Clarie McCracken說,「此種非決定性之指引會使業者無法找到標準作法以避免觸犯新法。」。     ICO認為企業在新法正式施行前,最好趕快表明其如何使用cookies功能並制定相關規定以遵守新法。     新法同時要求特定企業當其所蒐集之個人資料遭受駭客攻擊或外洩時,其必須要告知消費者。根據新法,個人資料遭受侵害之定義為:某種安全狀態遭受攻擊,導致與公共電子通訊服務有關之個人資料被故意或不法毀損、滅失、竄改、越權揭露或存取、傳遞、儲存或其他相關利用。當上述情事發生時,公司必須通報ICO,說明大致情況及可能產生之結果,並提出公司將採取之因應措施,同時告知受害之消費者。

美國賓州眾議院通過《人工智慧生成內容揭露法》

美國賓州(Pennsylvania)眾議院於2024年4月10日通過《人工智慧生成內容的揭露法草案》(House Bill 1598 Disclosure of Artificially Intelligent Generated Content,下稱草案),規範AI生成內容及其利用行為以保護消費者。 草案規定,以AI生成之各種形式內容,在其首次呈現給消費者時應揭露資訊,使消費者知道該內容為AI生成之結果。如果明知或重大過失(Knowingly or recklessly)產出、散布或發布任何未「明確且顯著」(clear and conspicuous)揭露其內容為AI所生成者,即屬「不公平或欺騙性行為或做法」,將被依賓州《不公平貿易行為與消費者保護法》(Unfair Trade Practices And Consumer Protection Law)規定處罰。草案亦說明應如何揭露資訊,方符合條文所謂「明確且顯著」標準,例如針對AI生成之音訊內容,其揭露應以足夠的音量和節奏傳達,以便消費者聽取和理解。 此外,草案也關注兒童保護問題。鑑於AI生成的兒童性剝削圖像通報日益增加,草案最後新增規定,未來不能將「兒童性剝削圖像為AI生成」作為辯護理由,且檢察總長或地區檢察官可起訴製造、持有以及傳播AI生成之兒童色情或性虐待素材等相關行為。 目前草案已在州眾議院通過,由州參議院審議中。草案的提案議員強調,人們有權知道其消費的內容實際上是使用AI產出的成果,因此草案通過後,可望有效遏阻濫用AI的行為,提供賓州民眾更多的保障。

歐盟將通過新的指令加強科學研究所中所使用之動物的保護

  2010年9月歐洲議會通過第2010/63/EU號指令(DIRECTIVE 2010/63/EU)修正文本,新的指令將修正第86/609/EEC 指令(Directive 86/609/EEC)原有規定,以加強對科學實驗用動物的保護。   2010年5月世界動物健康組織(the World Organisation for Animal Health, OIE)第78屆 大會中通過了第一個國際動物福祉標準,該標準納入OIE陸棲動物健康法典規範(OIE Terrestrial Animal Health Code)做為研究與教育用動物保護的準則,歐盟作為主要的提案者於是加速規範修正作業以回應OIE之承諾。新指令將規定歐盟各國主管機關必須在同意研究採用動物實驗前,評估其他研究方式的可能性並進行倫理評估,如需採用動物實驗應儘可能減少被試驗動物之痛楚,此外新指令也確保被實驗動物享有應有的生存環境,如適當大小的籠子等的要求。   新指令適用範圍將包括教育、訓練與基礎研究用的動物,其包含所有人類以外的活體脊椎動物以及某些可能感受痛楚的物種。靈長類動物如人猿的實驗也被禁止,除非為了該物種本身之生存所需,或者其他可能造成人類生存威脅或疾病之避免所必要方得於各國政府同意下進行之。新的指令將擴大禁止使用人猿、黑猩猩、彌猴等靈長類動物的實驗,除非有證據顯示其他物種的實驗無以達成靈長類動物實驗所能達成之目的,但也有成員國表示擴大靈長類動物實驗的限制將對於神經退化性疾病如阿茲海默症等的研究造成阻礙。   動物實驗的3R原則—取代、減量與改善(replacing, reducing, and refining)在第2010/63/EU號指令修正文本都已有相關規範,歐盟執委會表示歐盟將繼續致力於強化實驗用動物的福祉,同時為了確保新法的貫徹,新指令將授權設立歐盟層級的示範實驗室(Reference Laboratory at European Union level)協調各國採取替代動物實驗的方式。歐盟執委會表示新的指令將會在今年秋天公布。

何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

TOP