歐洲藥物管理局(EMA)加強與歐洲毒品與毒癮監控中心(EMCDDA)於精神性影響藥物和藥物濫用上的資訊交換合作

  2010年藥物主動監視法規(pharmacovigilance legislation)要求EMA和EMCDDA必須加強在藥物產品濫用(包含不合法藥品)的資訊交換合作關係,是以,EMA和EMCDDA於今年九月初於葡萄牙里斯本相互簽署了修訂工作協議(amended working arrangement),約定在新型精神性影響藥物與藥物濫用的面向上,加強相互間的資訊交流合作。

 

  於EMA和EMCDDA所簽訂的修正工作協議中,雙方約定就下列領域深化資訊交換:

 

1.雙方需各自依照歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條,對於所擁有之新型精神性影響藥物與藥物濫用(包含不合法藥品)資訊進行交換合作;

 

2.資訊交換需透過通常基準的報告形式由EMCDDA送至EMA,並含括有關於藥物產品濫用、不合法藥物,以及新型精神性影響物質等相關資訊;

 

3.EMA必須通知EMCDDA有關於藥物產品濫用的有效導因(validated signals),同時,EMA必須提供EMCDDA有關於藥物產品濫用和新型精神性影響藥品市場核准狀況的細部資訊;

 

4.EMA對於選定藥物產品之風險管理計畫的界定,可考量是否需先行與EMCDDA作諮詢意見交換;

 

5.EMA和EMCDDA在歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條所設基礎的合作模式下,必須要特別注意確保人類或動物健康照護並無惡化的情事,同時應確保科學建議之潛在衝突於前階段將會被界定與管理;

 

6.EMA和EMCDDA兩者間諮詢的進行,必須避免非關於新型精神性影響物質風險評估之科學建議的潛在衝突;

 

7.對於任何額外合作計畫的執行,必須考量EMA和EMCDDA兩者的例行性工作規劃;

 

8.對於特定計畫需要額外資源時,必須經由EMA和EMCDDA共同同意,並將同意文件附於現階段的工作協議中;

 

9.EMA和EMCDDA可就其各自舉辦的會議相互邀請對方,並邀請對該會議有興趣的其他團體參與;

 

10.對於EMA和EMCDDA間實際的合作面向,將在工作協議既定架構下繼續發展。

 

  除了前述的適用範圍外,EMA和EMCDDA的修訂工作協議,亦有就相互諮詢和秘密資訊等領域作出約定,以確保資訊交換係在符合雙方需求與不侵害個人基本權利的情況下進行。有鑑於EMA和EMCDDA希冀藉由資源互補的強化約定,來彌補自身於精神性影響藥物和藥物濫用領域的資訊不足缺陷,是否我國在相關醫療、藥品管制或是藥品商業化資訊需有跨機關的整合機制,以促使我國在醫療、醫藥資訊交換與流通,在不侵害個人基本權利的情況下,能夠發揮互益效用,則是我國有關單位必須審慎思考的問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 歐洲藥物管理局(EMA)加強與歐洲毒品與毒癮監控中心(EMCDDA)於精神性影響藥物和藥物濫用上的資訊交換合作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5845&no=64&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
德國聯邦參議院通過保護數位世界隱私之《電信與電子媒體資料與隱私保護法》

  德國聯邦參議院於2021年5月28日通過《電信與電子媒體資料與隱私保護法》(Gesetz zur Regelung des Datenschutzes und des Schutzes der Privatsphäre in der Telekommunikation und bei Telemedien, TTDSG),其目的係保護數位世界中的資料與隱私,平衡數位服務使用者利益與公司經濟利益,並解決因德國電信法(Telekommunikationsgesetz, TKG)、電信媒體法(Telemediengesetz, TMG)與歐盟一般資料保護規則(General Data Protection Regulation, GDPR)同時並行,使消費者、電信服務提供者以及監管機關不確定如何適用上開法律之情況。   TTDSG彙集TKG、TMG中資料與隱私保護相關之條文,包含電信保密(Fernmeldegeheimnis)(第3條至第8條)、交通位置資料(第9條至第13條)、來電通知與號碼顯示(第14條至第16條)、終端使用者名錄和相關資料提供(第17條至第18條),以及允許匿名化、可隨時停止使用服務和保護未成年之相關措施(第19條至第23條),並參考GDPR和電子隱私保護指令(ePrivacy-Richtlinie)新增數位遺產(digitaler Nachlass)、終端設備隱私保護、同意管理以及監管之規定。   TTDSG於第4條新增數位遺產規定,終端使用者繼承人或具有相似法律地位者,可以向供應商行使繼承人權利,不受電信保密相關規定限制;在終端設備隱私保護和同意管理之部分,TTDSG第24條規定原則上第三方僅能在終端使用者同意下,於使用者的終端設備中儲存與近用資料,且當事人可隨時撤銷同意。   最後在監管方面,則分為個人資料保護相關與電信媒體領域,前者依TTDSG第28條、第29條由德國聯邦資料保護與資訊自由委員會(Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, BfDI)作為獨立的資料保護監管機構,後者則依TDSG第30條屬德國聯邦網路局(Bundesnetzagentur)的職權範圍。

新加坡國家研究基金會推出AI.SG計畫,促進人工智慧技術發展

  新加坡國家研究基金會(National Research Foundation,以下簡稱NRF)於2017年5月3日宣布AI.SG倡議,並將啟動國家級AI計畫。NRF將於五年內投資新加坡幣1.5億元,整合NRF,智慧國家與數位政府辦公室(Smart Nation and Digital Government),經濟發展委會(Economic Development Board),資通訊媒體發展局(Infocomm Media Development Authority),新加坡創新機構(SGInnovate)及整合健康資訊系統(Integrated Health Information Systems)等數個政府部門,以及位於新加坡的研究機構、AI新創公司與發展AI產品的企業等共同投入。計畫三大目標如下: 利用人工智慧來解決影響社會和產業的重大挑戰   這些應用包括利用人工智慧解決交通尖峰時段壅塞問題,或應付人口老齡化帶來的醫療保健挑戰。IHiS執行長兼衛生部資訊長Mr.Bruce Liang表示:「醫療照護是需要高度知識及人性化的行業。多年來從新加坡在醫療照護數位化的發展中,可預見AI未來對於提升新加坡人民健康有很大幫助。例如在疾病預防、診斷、治療計畫、藥物治療、精準醫療、藥品開發等方面皆可發揮作用。醫護人員再加上AI工具,可以更完善解決未來對於醫療照護需求的增加。」 投入並深化技術能力,以掌握下一波科技創新   其中包括可展現更多人類學習能力的下一代「可解釋的人工智慧」 (Explainable Artificial Intelligence,XAI),以及相關技術,例如電腦系統架構(軟體、韌體、硬體整合)和認知科學(Cognitive Science)。NRF獎助金和研究計畫將會支持相關科學活動。當地人才也將透過參與AI深度功能的開發進行培訓。 擴大產業對於AI和機器學習的使用   AI.SG將與公司合作,利用AI來提高生產力,創造新產品,並輔導相關解決方案從實驗室進入市場。目標將支持100個AI研發項目和概念驗證,以利用戶能快速解決實際問題。並預計針對金融,醫療照護和城市管理解決方案領域具有特殊的潛力者先著手進行。   AI.SG計畫此項推動工作,未來不僅將可激發新加坡的研究人員和用戶利用AI解決社會重大問題,也將影響全世界渴望利用人工智慧技術帶來更便利的生活,值得我國相關機關推動政策之參考依據。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

何謂英國金融科技創新計畫( Project Innovate )?

  為了全力打造英國成為「FinTech 全球領導者地位」,及引領FinTech 國際監管規則的大國,英國金融業務監理局(Financial Conduct Authority, FCA)於2014年10月啟動了金融科技創新計畫(Project Innovate),目的就是能夠追蹤進入金融市場的新興商業模式,其中最重要的建立監理沙盒制度(Regulatory Sandbox),旨在提供企業可以在安全空間內對創新產品、服務、商業模式等進行測試,而不會立即招致參與相關活動的所有監管後果。   金融科技創新計畫增設創新中心(Innovation Hub),為創新企業提供與監管對接等各種支持。   金融科技創新計畫通過促進破壞式創新鼓勵挑戰現有的商業模式,而創新中心主要透過政策與金融科技業者交流,了解是否監管政策能夠更好的支持創新。

TOP