歐洲生技產業協會促請降低中小型生技產業之專利申請費用

  在專利領域,歐盟層級目前尚未有任何整合全體會員國內國專利法之有效法規, 1973 年訂定之歐洲專利公約( European Patent Convention, EPC )並非歐盟層級的法律,且 EPC 僅就歐洲專利的申請、審核及取得予以規定,至於專利權之保護,專利權人仍必須在受侵害國家自行尋求救濟,故自 1972 年起,歐盟即一直試圖整合共同體之專利規定,持續催生「共同專利規則」(草案)( Proposal for a Council Regulation on the Community Patent ),目的是希望在歐洲層級,除了可以有統一受理及發給共同體專利之機制外,關於涉及共同體專利實體法上之解釋,亦能予以統一審理、解釋。


  目前歐盟各國紛歧的專利制度,使產業維護與保護其專利權益之成本極高,且受到嚴重影響的往往是那些中小型的新創與研發行公司,若再加上其他必要費用及語言隔閡(當前翻譯費用占歐洲專利的所有申請成本的比率可能高達 20 %)等因素一起比較,即可發現歐洲中小型企業處於競爭劣勢;相較於此,美國對雇用員工少於 300 人的企業的專利申請費用,提供高達 80 %的補助。


  由於生技產業多為中小型規模的企業,為確保這些企業的競爭力,歐洲生技產業協會( EuropaBio )建議歐盟參考去( 2005 )年 12 月 15 日 通過的「歐盟醫藥品管理局協助中小型公司發展之規則」( Commission Regulation (EC) No 2049/2005 )減免中小型生技製藥公司新藥上市申請規費的方式,對中小型企業之專利申請費用,亦給予折扣。


  這項建議獲得歐盟執委會的支持,執委會並打算在 10 月重新提出的共同體專利規則( Regulation on Community Patent - London Protocol )中納入考量根據 London Protocol ,未來歐洲專利得僅以三種語言(英文、德文及法文)提出,該 Protocol 必須至少有八個國家簽署,包括法國、德國及英國,始能生效 截至目前為止,已經有十個國家(包括德國及英國)的國會同意接受該協議,其中七國並已經相關文件交存,因此一般認為 London Protocol 通過的機率極大。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐洲生技產業協會促請降低中小型生技產業之專利申請費用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=814&no=64&tp=1 (最後瀏覽日:2025/12/11)
引註此篇文章
你可能還會想看
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

德國提出「新冠肺炎及新型冠狀病毒預防接種法」草案,以利疫苗分配之政策規劃及法制基礎

  德國聯邦健康部(Bundesministerium für Gesundheit, BMG)於2020年12月15日提出「新冠肺炎及新型冠狀病毒預防接種法」(Gesetzes zur Priorisierung bei der Schutzimpfung gegen das Corona-virus SARS-CoV-2, Coronavirus-Impfgesetz)草案,現進入聯邦參議院審議階段。該草案之立法目的在於,確認新冠肺炎及新型冠狀病毒(Coronavirus SARS-CoV-2)疫苗分配的公平性,並藉此降低嚴重疾病與死亡人數。   原則上凡屬於法定健康保險的被保險人,或於德意志聯邦共和國內有住所或長期居留者,得依據新冠肺炎及新型冠狀病毒預防接種法規定,具有接種新冠肺炎及新型冠狀病毒疫苗之權利。然而,由於疫苗的分配涉及基本法第2條第2項第1句生命及身體安全的基本權利(Grundrecht auf Leben und körperliche Unversehrtheit),以及衡酌疫苗資源的有限性問題,該法第3條依據風險群體(Risikogruppen)及適應症群體(Indikationsgruppen)共區分六級的接種優先順序,如違反接種優先順序者,將可能面臨最高三萬元的罰鍰,意圖營利者則將可能面臨一年至五年的有期徒刑。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

TOP