近年專利蟑螂(Paten Troll)、非專利實施實體(Non-Practicing Entity, NPE)的興起,使得國際上智慧財產權的運用出現巨幅變化。美國政府、企業及學界皆認為專利蟑螂濫訴現象為亟待解決之課題,而相繼投入研究,並於近日陸續發表重要之研究報告。
繼今年(2012)8月,美國國會研究處 (Congressional Research Service)提出對抗專利蟑螂之研究報告後(“An Overview of the "Patent Trolls" Debate”)。隸屬國會的政府課責署(Government Accountability Office, GAO, 另譯審計總署)所資助的研究團隊,亦於杜克大學科技與法律評論(Duke Law & Technology Review)發表相關研究。研究團隊採取實證的研究方法,於2007年~2011年間,每年度隨機抽樣100家涉及專利訴訟的公司,總計抽樣500家公司。依據該項研究結果,去年(2011)由NPE所提起的專利訴訟,佔研究樣本的40%,相較於5年前的數據,成長幅度高達2倍。本項研究可歸納以下兩項要點:
1.專利訴訟主體的變化
由NPE為原告所提起的專利訴訟數量呈現極速成長;由企業為原告者則逐年下降;同為非專利實施實體之大學,其作為原告所提起之訴訟則未達1%。
2.訴訟並未進行實質審理
由NPE提起之訴訟,其目的在於獲取和解金或授權金,故絕大多數係申請作成即時判決(summary judgement),即當事人一致認為對重要事實不存在爭議,而向法官申請不為事實審理,僅就法律問題進行裁決。
就此,該研究團隊認為,NPE已成為專利制度,甚至係整體經濟之一環,故提出應以「patent monetization entities」取代過往NPE的稱呼,強調此類公司以專利授權或專利訴訟作為公司營利之來源,如此將更為貼切。
本文為「經濟部產業技術司科技專案成果」
哥斯大黎加國家登記處(Costa Rican National Register)於2025年1月21日做出准許當地超市登記「SUPER MARIO」商標的決定,駁回任天堂之異議。 該超市位於哥斯大黎加的聖拉蒙區,屬於區域型超市,因創辦人名為Mario Alfaro,且當地通常將超市簡稱為super一詞,在1970年創立超市時取名為SUPER MARIO,並於2013年註冊商標「SUPER MARIO Su lugar de confianza」(意為超級瑪利歐值得信賴的地方),實際是將SUPER MARIO與 Su lugar de confianza分成上下兩列,且SUPER MARIO之字體大於Su lugar de confianza之字體。該超商於2024年以「SUPER MARIO」申請第35類商標,惟被任天堂(Nintendo)主張「SUPER MARIO」為任天堂所擁有商標而提起異議。 任天堂雖於當地有註冊「SUPER MARIO」商標,惟其註冊類別係電子遊戲、玩具、服飾等第9、18、25、28等產品類別,並未包含第35類之民生消費品零售服務,因此其異議被哥斯大黎加國家登記處所駁回,該「SUPER MARIO」超市得以註冊第35類「SUPER MARIO」商標。 另須留意的是,該超市名稱「SUPER MARIO」,雖與任天堂的「SUPER MARIO」相同,但其標誌實際之配色,係以黃色與藍色搭配,此種顏色差異可避免消費者產生與任天堂「SUPER MARIO」商標之間的聯想。 組織常隨著業務經營變動就品牌商標進行變更或調整,此案之超市於長期經營後欲以其「SUPER MARIO」名稱作為商標註冊而發生之爭議,該爭議差點造成無法註冊新商標,顯見商標權利管理不只限於申請、延展、主張權利等事宜,尚包含品牌命名或標誌全新/優化設計,須留意命名或標誌全新/優化設計方向,是否與他人既有商標近似,無法取得註冊商標的風險;行銷使用品牌商標時,應留意是否依註冊商標樣態使用,避免任意變換使用註冊商標樣式,致與他人商標近似而被控侵權。完整之智財管理機制可參經濟部產業發展署所推廣之台灣智慧財產管理規範(Taiwan Intellectual Property Management System,簡稱TIPS),組織可依其風險情境展開對應之風險應對措施,以降低組織營運可能產生的智財風險,並因應環境變化調整內部規定與做法。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
歐盟執委會授權各國決定GMO的提案遭抨擊 10月環境部長會議將繼續協商歐盟執委會(European Commission)於今(2010)年7月授權歐盟各會員國自行決定禁止或准許基因改造(GM)農作物的提案,過去幾個月來即已不斷遭受外界質疑,在近日(9月27日)召開的農業部長會議上又受到主要歐盟會員國的強烈抨擊;歐盟消費者健康及安全政策部門代表John Dalli表示,這個問題將會在10月14日召開的環境部長會議繼續進行協商。 事實上,歐盟執委會的提案同時引來了GMO支持者與GMO反對者的譴責,他們認為這項議案會給農民與農產業者製造法律上的不確定空間,徒增困擾;此外,綠色和平組織歐盟農業政策執行長Marco Contiero也表示,各會員國都不應該接受執委會的這項提案,反而必須對執委會施加壓力,以確保農作物的安全並預防環境污染。農業會議上,許多會員國農業部長也擔心執委會的提案不但會分裂農產品國際市場,並也可能與WTO規則相衝突。 由於預期執委會7月份的提案可能將被撤回或大幅修改,參與農業會議的各國部長也都同意在這過渡時期成立專責的工作小組,以資因應該提案所引致的眾多批評。就現階段看起來,GMO爭議還會在歐盟繼續上演,後續的相關討論值得繼續觀察。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。