「液態高效價大麻二酚」(CBD)是否具備美國專利法上之新穎性?

  所謂「大麻」實為大麻屬植物,其中除了較常耳聞的娛樂用大麻外,尚包含工業用大麻(俗稱火麻,hemp),兩者區分標準在於四輕大麻酚(THC)成分高低,後者THC成分小於0.3%,難以做為娛樂用,由於大麻於過去曾有相當時間遭各國所禁止,因此與其有關之研究、專利申請案之數量可謂罕有。然而,近年來隨著各國逐漸放寬對大麻的限制,諸多藥商陸續投入以大麻為成分之藥品開發中,並執此取得專利申請,從而引發相關人士提出此種專利究竟是否具備新穎性之疑問

  日前於2018年7月間,美國即有藥商對此提出專利訴訟,全案大致背景如下:United Cannabis Corp.(下同UCANN)對Pure Hemp Collective Inc.(下同Pure Hemp)提出專利侵權訴訟,指稱Pure Hemp所研發之多款含CBD成分之藥物均侵害其編號9,730,911之專利(下同911專利)。而Pure Hemp則反駁,並稱911專利其中第1、5、16、20、25項聲明將此一專利範圍擴張至所有以液體型態存在之高效價大麻二酚(liquid form of high-potency cannabis),因此若其他藥品商以此一成分生產其他藥物,不論作用、成效是否相同,均可能侵害UCANN之專利權

  本案爭點在於:「以大麻中,早已廣泛流通於市面之大麻二酚(CBD)製成之藥品,是否具備專利法上之新穎性?」。對於系爭專利成分「液態高效價大麻二酚」,事實上已於美國銷售多時,從而此一成分是否具備「新穎性」即容有疑問。業界相關人士指出,美國專利及商標局(U.S. Patent and Trademark Office,下同當局)未審酌上開涵蓋過廣之專利聲明以及未顧及系爭專利成分已於市場流通多年此二種情況,即核發專利許可證,可以說是一種行政怠惰。同時間,也有論者較為持平的認為這可能得肇因於大麻專利申請案之前例過少,使得當局專職審核是否具備新穎性要件之相關人員要難查知。此種說法雖然稍有為當局開脫之嫌,但實際上也間接彰顯了專利審查人員於核發此種專利時,有判斷不周的情形。無論如何,目前全案尚在審判中,詳細結果,均有待判決做成後方知一二。

相關連結
你可能會想參加
※ 「液態高效價大麻二酚」(CBD)是否具備美國專利法上之新穎性?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8216&no=0&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

何謂日本「大學共同利用機關法人」

  所謂「大學共同利用機關法人」,係指日本於《國立大學法人法》(国立大学法人法)中,以設置大學共同利用機關為目的,依該法之規定設置之法人。而所謂「大學共同利用機關」,依該法之規定,則係指有關在該法所列舉之研究領域內,為促進大學學術研究之發展而設置,供大學院校所共同利用之實驗室。日本利用大學共同利用機關法人之設置,將大型研發設施設備,以及貴重文獻資料之收集及保存等功能賦予大學共同利用機關,並將其設施及設備,提供予與該大學共同利用機關進行相同研究之大學教職員等利用。   目前登錄於日本文部科學省之大學共同利用機關法人包括了「大學共同利用機關人類文化研究機構」(大学共同利用機関法人人間文化研究機構)、「大學共同利用機關自然科學研究機構」(大学共同利用機関法人自然科学研究機構)、「大學共同利用機關高能量加速器研究機構」(大学共同利用機関法人高エネルギー加速器研究機構),以及「大學共同利用機關資訊與系統研究機構」(大学共同利用機関法人情報・システム研究機構)等四者。

複製人類在歐美之法制規範

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

TOP