所謂「大麻」實為大麻屬植物,其中除了較常耳聞的娛樂用大麻外,尚包含工業用大麻(俗稱火麻,hemp),兩者區分標準在於四輕大麻酚(THC)成分高低,後者THC成分小於0.3%,難以做為娛樂用,由於大麻於過去曾有相當時間遭各國所禁止,因此與其有關之研究、專利申請案之數量可謂罕有。然而,近年來隨著各國逐漸放寬對大麻的限制,諸多藥商陸續投入以大麻為成分之藥品開發中,並執此取得專利申請,從而引發相關人士提出此種專利究竟是否具備新穎性之疑問。
日前於2018年7月間,美國即有藥商對此提出專利訴訟,全案大致背景如下:United Cannabis Corp.(下同UCANN)對Pure Hemp Collective Inc.(下同Pure Hemp)提出專利侵權訴訟,指稱Pure Hemp所研發之多款含CBD成分之藥物均侵害其編號9,730,911之專利(下同911專利)。而Pure Hemp則反駁,並稱911專利其中第1、5、16、20、25項聲明將此一專利範圍擴張至所有以液體型態存在之高效價大麻二酚(liquid form of high-potency cannabis),因此若其他藥品商以此一成分生產其他藥物,不論作用、成效是否相同,均可能侵害UCANN之專利權。
本案爭點在於:「以大麻中,早已廣泛流通於市面之大麻二酚(CBD)製成之藥品,是否具備專利法上之新穎性?」。對於系爭專利成分「液態高效價大麻二酚」,事實上已於美國銷售多時,從而此一成分是否具備「新穎性」即容有疑問。業界相關人士指出,美國專利及商標局(U.S. Patent and Trademark Office,下同當局)未審酌上開涵蓋過廣之專利聲明以及未顧及系爭專利成分已於市場流通多年此二種情況,即核發專利許可證,可以說是一種行政怠惰。同時間,也有論者較為持平的認為這可能得肇因於大麻專利申請案之前例過少,使得當局專職審核是否具備新穎性要件之相關人員要難查知。此種說法雖然稍有為當局開脫之嫌,但實際上也間接彰顯了專利審查人員於核發此種專利時,有判斷不周的情形。無論如何,目前全案尚在審判中,詳細結果,均有待判決做成後方知一二。
「孤兒著作」係指仍在著作權保護期間,但是著作權人不明知著作。依著作權法第10條規定,著作人於著作完成時享有著作權,而著作權之保護期間依著作權法第30條第1項存續於著作權人之生存其間及其死亡後之50年。 在網路普及資訊流通快速之現代,經過不斷的轉載,許多著作權人不明,但是仍受著作權法保護,所謂之「孤兒著作」在市面上不斷流通。此時若與利用孤兒著作,但是不知道著作權人是誰,無法取得授權之情形下,要怎麼辦才不會觸法? 此時依文化創意發展法第24條,想要利用孤兒著作之人,得在盡力尋找著作權人未果後(不知著作權人為何或是著作權人聯繫資訊不明知情形),向智財局說明無法取得授權之原因,並提存一定金額,取得智財局之許可授權後,於許可範圍內利用該著作。又須提存之金額應與一般著作經自由磋商所應支付合理之使用報酬相當。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
英國個人資料保護最新案例發展及其對我國法制之啟示 日本內閣府召集研究小組 解決因AI帶來之智財問題日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。 日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)