學名藥品侵權 v. 競爭法中的假訴訟
Generic Drug’s Patent Infringement v. Sham Litigation in Antitrust

  美國聯邦第三巡迴上訴法院於2014年時對於Takeda Pharmaceutical Co.(Takeda) v. Zydus Pharmaceuticals (Zydus) 一案判定:學名藥廠Zydus並無構成專利侵權,且原廠Takeda於本案的系爭專利並無失效[1]。惟本案的學名藥廠Zydus隨後向Takeda提起另一訴訟:Zydus聲稱該案的專利侵權訴訟是假訴訟(sham litigation)[2],亦即,Takeda 提起專利侵權訴訟之本意在於阻卻Zydus的學名藥參與市場競爭,而非旨在確認侵權事實或請求賠償。Takeda隨後提起反訴,主張美國The 1984 Hatch-Waxman Act[3]已明確賦予專利權人提起專利權侵權訴訟之權利,既有訴訟權,便無假訴訟之虞。

  美國聯邦貿易委員會(Federal Trade Commission, FTC)對於上述兩藥廠間的假訴訟爭議,在2018年6月時發布法庭之友意見書(amicus brief [4]),以5-0決議呼籲本案法院應對於假訴訟爭議進行審查。本意見書指出,The 1984 Hatch-Waxman Act、競爭法、專利法或其他醫藥法規,無任何關於藥品侵權訴訟得以免除假訴訟審查之規定。再者,FTC實有權限依據豁免原則(Noerr-Pennington Doctrine)及相關判例,就主觀與客觀要件,審查相關爭訟是否為假訴訟:(1)該爭訟程序客觀上是否無理由,提出爭訟者現實上是否不期待勝訴;(2)該爭訟程序當事人主觀上是否有意利用程序,直接地干擾競爭對手的商業關係。本意見書並進一步說明,原廠Takeda所提專利權侵權訴訟,即使學名藥廠Zydus之專利侵權事實為真,惟只要Takeda行為符合假訴訟主、客觀要件,仍有可能構成假訴訟;亦即,「是否侵權」與「是否該當假訴訟」兩者之判斷是分開的。


[1] 原廠藥之英文為branded drug,指一個藥廠自研發、生產、上市,而握有專利權之藥品,通常具有強大品牌名聲、價格通常也高;學名藥廠則是待原廠藥專利權屆滿後、或以侵權之方式,而製造與原廠藥相同或相似之藥物,學名藥價格相對較低,但在安全與效用上時常有疑慮。

[2] 美國競爭法豁免原則(Noerr Pennington Doctrine)下,私人爭訟方或單位,運用爭訟或政府程序等以促進法案的通過、增進法律執行等,免除競爭法之相關責任。但該責任免除之原則下,當事人若僅是利用政府或爭訟程序作為有害市場競爭的工具,並無合法地尋求正面結果; 或該爭訟僅是純粹的假訴訟,以干擾正當商業關係或市場競爭時,無該原則免除競爭法相關責任的適用,亦即,仍須受到競爭法的檢視與求責可能。

[3] The 1984 Hatch-Waxman Act 旨在促進學名藥參進市場競爭、兼顧學名藥與原廠藥間的利益保護,並明定原廠藥與學名藥廠均有權利提起專利權合法爭訟(validity),以避免學名藥進入市場的受阻、也欲杜絕學名藥廠進行藥品侵權行為。

[4] 此指法庭意見書,乃為了釐清法律爭議或協助解釋法律等所提之文書,供參考用、不具強制法律效力,我國翻譯則稱法庭之友。

相關連結
相關附件
你可能會想參加
※ 學名藥品侵權 v. 競爭法中的假訴訟
Generic Drug’s Patent Infringement v. Sham Litigation in Antitrust, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8085&no=64&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
英國個人資料保護最新案例發展及其對我國法制之啟示

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟隱私工作小組支持擴大通知義務之業者範圍

  歐盟隱私權工作小組(working party)日前公布其對「隱私與電子通訊指令」(Directive on Privacy and Electronic Communications, 2002/58/EC)之修正意見,藉此重申支持個人資料外洩通知責任立法之立場,並建議擴大適用通知責任之業者範圍至涉及線上交易之電子商務之服務提供者。此項建議隨即遭到歐盟理事會及委員會之反對,認為通知責任應僅限於電信公司,而不應擴及其他電子商務服務提供者。   歐盟隱私權工作小組於2009年2月初提出的報告指出,個人資料外洩通知責任法制(Data Breach Notification Law)之建立對於資訊社會服務(Information Society Service)之發展是必要的,其有助於個人資料保護監督機構(Data Protection Authorities)執行其職務,以確認受規範之服務提供者是否採取適當的安全措施。再者,亦可間接提高民眾對於資訊社會相關服務使用之信心,保護其免於身份竊盜(identity theft)、經濟損失以及身心上之損害。   然而,歐盟理事會及歐洲議會則反對該項修正建議,其一方面認為不應擴張資料外洩通知責任制度適用之業者,另一方面則認為對於是否透過法制規範課予業者通知之義務,應由各國立法者決定是否立法,甚或由業者依資料外洩情形嚴重與否,來判斷是否通知其各國個人資料保護相關組織及客戶。此外,參考外國實施之成效,美國雖有多數州別採用資料外洩通知責任制度,但並非所有的隱私權團體皆肯認該項制度;英國資訊委員會對於該制度之成效則仍存質疑,因從過去為數眾多的個人資料外洩事件看來,其效果已逐漸無法彰顯。   雖然歐盟個人資料保護官(European Data Protection Supervisor)與歐盟隱私權工作小組之看法一致,但其與歐洲議會與歐盟理事會仍存有歧見,對於個人資料外洩通知責任制度之建立,似乎仍有待各方相互協商尋求共識,方能決定是否納入歐盟隱私及電子通訊指令之規範。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP