歐盟訂定新規範 管理傳統草藥品上市

  近年來,歐洲市場對傳統草藥的接受程度逐漸上升。傳統草藥銷售市場在歐盟成員國正在快速成長,其中從中國進口的傳統中藥數量更以倍數上升。目前歐洲市場上的天然植物藥約略可分為三大類:第一類是處方藥,用於治療危重病症的植物藥針劑也包括在內;第二類是非處方植物藥;第三類是保健製藥,可在保健食品店購買。歐盟去年通過的傳統草藥品指令(EU Directive on Traditional Herbal Medicinal Products)自20051031日起,已全面生效適用於歐盟地區。該指令為傳統植物來源藥品於歐盟境市場內銷售,開啟了依照簡化查驗程序上市的途徑,但也限制了部分草藥品的上市可能。


  其中較具衝擊性的是:傳統使用要件之認定嚴格。根據指令第
16c1)條,此一傳統使用歷史必須是30年以上,且其中至少有15年是在歐盟境內的使用歷史,方可考慮其安全性及療效。「傳統使用」仍須有相關文獻及專家證明其:(1)已使用相當年限之客觀事實、(2)具有安全性與療效之可信度,因此,簡化程序並無法適用於偏方之傳統草藥。而「必須是在歐盟境內至少有15年的使用歷史紀錄或資料」,更大大限制了在1990年前尚未進入歐盟會員國的草藥品,將可能因此被擠出歐盟市場。


  該指令規定了七年的緩衝限期,可讓歐盟會員國調整不符合簡化查驗程序申請資格、但在該指令生效前已在各會員國市面上銷售的草藥品。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟訂定新規範 管理傳統草藥品上市, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=425&no=57&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
歐盟執委會認可巴西資料保護能力,啟動適足性認定程序

歐盟執委會(European Commission)於2025年9月4日提出對於巴西的適足性認定草案,並且開始啟動相關程序。根據《一般資料保護規則》第45條規定,如歐盟境內之個人資料將傳輸至第三國或國際組織時,須經由歐盟執委會認定該第三國、第三國內之特定部門或國際組織之資料保護水準與歐盟境內基本相同,使得為之。該認定即為「適足性認定」,目前包含日本、韓國、加拿大、阿根廷及烏拉圭皆已取得適足性認定。 本次歐盟執委會所提出之適足性認定草案中,審酌了巴西《一般資料保護法》(Lei Geral de Proteção de Dados, LGPD)當中的目的限制、必要性、透明性、安全性及問責機制等原則,以及個資監管與執法之獨立機構「巴西資料保護局」(Autoridade Nacional de Proteção de Dados, ANPD)之角色,認定巴西國內的個人資料保護水準已達到與GDPR所要保護水準相同。 此外,ANPD於2024年發布,旨在使巴西具有與GDPR等隱私框架相同之跨境傳輸規範之國際資料傳輸規則,ANPS正依照該規則進行對歐盟進行法律評估,認定歐盟屬於符合LGPD之適當司法管轄區。如巴西通過對歐盟評估,將建立起鞏固雙方之間的監管力度及法律承認的互相承認機制。 歐盟執委會提出對於巴西之適足性認定草案,後續須經由歐洲資料保護委員會(European Data Protection Board, EDPB)審查並提出意見,並經過成員國代表參酌EDPB提出之意見並審查批准後,始得由歐盟執委會通過適足性認定。通過適足性認定後,將促進國際資料流動,並加強巴西與歐盟之間資料保護與監管領域方面的合作。

法國資料保護機關要求Clearview AI刪除非法蒐集的個人資料

  法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。   因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。

因應國際立法趨勢 專利法相關制度擬大幅度鬆綁

智慧局現正積極研修專利法,其中最為重要者包括: • 配合國際公共衛生議題,放寬強制授權條件; • 修正研究實驗免責相關規定; • 配合司法院智慧財產專業法院之成立,研擬設置爭議審議組; • 新型專利整體制度改革,考量原則開放「同一人」對於同一技術可「同時」申請,以利企業作專利佈局; • 大幅修正新式樣專利制度,開放多種新式樣保護標的,擴大新式樣專利保護範圍,以期帶動台灣文化創意及工業設計產業發展。   由於專利法這次修正為通盤修正,故智慧局刻正召開多場公聽會,參考各界意見及參酌國際立法趨勢為整體思考,以期建立更完善之專利制度。其中,針對新型專利制度之整體政策、專利年費逾越繳納期限產生失權後之救濟制度、以及以外文本提出申請取得申請日等三項議題,智財局已於 7 月 18 日 召開公聽會,聽取各界意見,尋求共識。   在新型專利整體制度改革部分,智慧局擬考量原則開放「同一人」對於同一技術可「同時」申請,以提供更多權益保障,以利企業作專利佈局。因此,企業一方面可取新型形式審查之便利領證,一方面也可取發明專利實體審查權利較穩定,而且二者前後接續。   有關專利權人逾越年費繳納期限產生專利權消滅後之救濟制度,依現行 專利法第82條 規定,發明專利第二年以後之年費,未於應繳納專利年費之期間內繳費者,得於期滿六個月內補繳之,但其年費應按規定之年費加倍繳納。根據前開規定,專利權人超過年費繳納期限,得於到期後六個月內加倍補繳年費,但專利權人超過一日與超過五個月,同樣都須加倍補繳,二者顯然有所失衡,因此,這次修法預備採取比率加繳制度,也就是說,依照超過的期限多寡,比率補繳,並非一率加倍補繳。   另外,超過六個月補繳期後,依照現行 專利法第66條第3款 規定,專利權當然消滅,只有在專利權人超過期限未繳年費是因具有不可抗力事由時,才能依 專利法第17條第2項 申請回復原狀,但是,一些專利權人超過繳費期限,並非因為具有不可抗力事由,而是具有正當理由,若因此而喪失專利權,顯非專利法保護專利權人之意旨,故此次修正亦放寬申請回復原狀之事由,以保障專利權人之權益。   針對外文本提出申請取得申請日部分,現行 專利法第25條第4項 規定,專利申請案允許申請人先以外文說明書提出申請,嗣後再補中文說明書,而專利法對於外文說明書之語文種類並無任何限制,以致外文本種類繁多,是否與中文譯本相符,認定上有困難。智慧局這次修正,研擬作適當限制,但是與會人員有不同意見,智慧局將再通盤考量。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP