美國食品及藥物管理局發布《細胞和基因治療產品效價保證指引草案》

由於起始材料(starting material)與其作用機制的複雜性,如何評估細胞和基因治療(Cell and Gene Therapy, CGT)產品的效價,並且確保產品效價有一致性,是一項複雜的工作。因應近年CGT產品的發展,美國食品及藥物管理局(U.S. Food and Drug Administration, FDA)於2023年12月28日發布《細胞和基因治療產品效價保證指引草案》(Potency Assurance for Cellular and Gene Therapy Products Draft Guidance for Industry),旨在提供廠商基於科學與風險評估的效價確保策略。

指引草案重點如下:

1.確立效價測試基準:納入2011年《細胞和基因治療產品的效價測試指引》(Potency Tests for Cellular and Gene Therapy Products Guidance for Industry)中關於效價測試設計的具體建議,包括專一性、準確性和精確性等要求。

2.建立涵蓋產品生命週期的效價保證策略:強調在整個產品生命週期中,進行效價測試的重要性,涵蓋製程設計、製程控制、物料控制與批次檢測等多個環節。

3.導入風險管理評估概念:包括根據CGT產品的作用機制、臨床指示和給藥途徑來訂定目標產品品質(Quality Target Product Profile, QTPP),確定與效價相關的關鍵品質因素(Critical Quality Attributes, CQA)、以及影響CQA的關鍵性製程因素(Critical Process Parameter, CPP)等,並應用到效價保證策略中。

依照這份指引草案,未來廠商在產品開發早期階段就需要進行產品性質與作用機制的風險評估,在製造過程中持續進行品質監控,並詳細記錄其效價測試方法。這樣能確保產品在每個生產階段都符合FDA的安全性和效價標準,從而減少市場准入的障礙,也增強了公眾對CGT產品安全性和療效的信心,加快創新治療方法的推廣,而後續亦值得關注2024年3月27日所徵集的意見。

相關連結
※ 美國食品及藥物管理局發布《細胞和基因治療產品效價保證指引草案》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9161&no=64&tp=1 (最後瀏覽日:2026/01/01)
引註此篇文章
你可能還會想看
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。   歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。   在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。   在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

亞馬遜啟動「零計劃」與「透明度計劃」打擊盜版

  於平台上販賣盜版商品,長期困擾著許多電子商務平台。做為美國電子商務龍頭之一的亞馬遜,近年也遭受外界指責未盡防止盜版的責任。儘管亞馬遜聲稱已盡力處理廠商的盜版申訴,但外界對於亞馬遜怠於處理甚至靠盜版牟利的譴責,卻未見停歇。   為解決盜版猖獗的問題,亞馬遜於2019年年初推出了以「零計劃」(Project Zero)為名的免費品牌服務,這項計畫包含了幾個項目,其一是透過機器學習掃描平台中可能的仿冒商品,並依據廠商提供的品牌資料主動移除可疑的盜版項目;其二,提供廠商自行移除仿冒商品的工具,廠商無須向亞馬遜提出申訴即可自行下架盜版商品;第三,透過廠商在商品上放置特殊編碼,讓亞馬遜可以在出貨時就檢驗其是否為正版,以即時遏止盜版商品的送到消費者手中。「零計劃」目前僅提供部分受邀品牌參與,同時,即使亞馬遜宣稱會採取適當檢驗程序,但該計劃是否會賦予大品牌過多權力,壓迫小廠商或二手商品的發展,導致不公平競爭的問題,仍有待觀察。   除「零計劃」之外,今年(2019)年初 亞馬遜也擴大了自2017年開始運作的「透明度」(Transparency)的付費計劃。該計劃的運作,是由亞馬遜給予註冊品牌廠商一個或數個由亞馬遜研發的二維條碼,廠商有責任將其施用在其指定的商品上,以一方面讓亞馬遜在出貨該商品時透過該條碼來驗證商品來源與真實性 ,二方面買家也可透過亞馬遜提供的APP掃描條碼來確認其商品是否為正品(此為零計劃中所未包含的功能)。目前該計劃已在北美、德國、法國、英國、義大利、西班牙與印度等國實施。

TOP