美國FDA為因應藥品汙染事故公告四項製藥新指導原則

  美國食品藥物管理局(the United States Food and Drug Administration,以下簡稱FDA)於2015年2月13日公告四項與藥品製造有關之指導原則(guidance)作為補充相關政策執行之依據,主要涉及藥品製程中,藥品安全不良事件回報機制、尚未經許可之生技產品的處理模式、藥品重新包裝,以及自願登記制度中外包設施之認定應進行的程序與要求。

  該四項指導原則係源於FDA依據2013年立法通過之藥物品質與安全法(The Drug Quality and Security Act,以下簡稱DQSA)所制定之最新指導原則。因2012年位於麻州的新英格蘭藥物化合中心(The New England Compounding Center),生產類固醇注射藥劑卻遭到汙染,爆發致命的黴菌腦膜炎傳染事故,故美國國會制定DQSA,以避免相同事故再次發生。DQSA要求建立自願登記制度(system of voluntary registration),倘若製藥廠自願同意FDA之監督,成為所謂的外包設施(outsourcing facilities)。作為回饋,FDA即可建議特定醫院向該製藥廠購買藥品。

  而本次四項指導原則之內容,其一主要涉及外包設施進行藥物安全不良事件回報之相關規定,要求製藥廠必須回報所有無法預見且嚴重的藥物安全不良事件。在不良事件報告中必須呈現四項資訊,其中包括患者、不良事件首名發現者、所述可疑藥物以及不良事件的類型。同時,禁止藥品在上市時將這些不良事件標示為潛在副作用。第二份指導原則對於尚未經許可的生技產品,規定可進行混合,稀釋或重新包裝之方法;並排除適用某些類型的產品,如細胞療法和疫苗等。第三份指導原則涉及重新包裝之規定,內容包括包裝地點以及如何進行產品的重新包裝、監督、銷售和分發等其他相關事項。而第四份指導原則規範那些類型之藥品製造實體應登記為外包設施。為此,FDA亦指出聯邦食品藥物和化妝品法(the Federal Food Drug & Cosmetic Act)之規定裡,已經要求製造商從事無菌藥品生產時,必須將法規針對外包設施之要求一併納入考量。

本文為「經濟部產業技術司科技專案成果」

相關附件
※ 美國FDA為因應藥品汙染事故公告四項製藥新指導原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6783&no=57&tp=1 (最後瀏覽日:2026/03/10)
引註此篇文章
你可能還會想看
歐盟新提出之《數位服務法》將針對科技巨擘實施更加嚴格之規定

  歐盟委員會在2020年1月提出之工作計畫中,即表示2020年第四季度將會提出新的《數位服務法案》《Digital Services Act》,以因應新興數位時代下的歐洲。   2020年10月29日歐盟競爭事務專員表示,幾個科技巨擘針對每天蒐集大量訊息並加以過濾篩選,最後傳遞予公眾有限數量消息的過程,將必須採取更多措施以清除非法及有害的內容,此舉旨在解決與大型社交媒體平台相關之兩大問題,即仇恨言論之傳播以及傷害社會公共對話與民主之言論。   該法案將規範科技公司須針對其行為製作報告,並告知使用者,他們所看到的廣告是由誰付費進行投放、為什麼他們會成為這支廣告的目標對象。蓋因科技公司之數位平台先是無償蒐集使用者個人資料及偏好,再針對這些資料進行分析後,對使用者量身訂製廣告行銷策略,最後科技公司依靠此套方法賺進大量廣告收益,例如,臉書與Google在2018年的廣告收入佔據總收入百分之九十八及百分之八十五以上。   該法案亦將針對科技公司篩選訊息,最後有選擇性的發送特定訊息予社會大眾及量身訂製置入廣告之行為,設立明確規則,羅列應作為或是不作為之清單。例如禁止推銷自己的服務,蓋阻止競爭對手向消費者提供更好的交易服務,等同於變相阻止消費者享受自由競爭和創新的成果;故將先設立協調一致之調查框架,提供一套統一的規則以調查數位服務市場已存之結構性問題,而後在必要時可以採取相關行動,使市場更加具有競爭力。歐盟預計將於2020年12月2日宣布《數位服務法》草案,在正式立法之前,會再與歐盟國家取得一致共識。

經濟部技術處研究機構智慧財產管理制度評鑑與台灣智慧財產管理規範(TIPS)驗證內容比較

德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

新時代的管理利器-系統化的企業員工管理制度

TOP