何謂不實施專利實體(Non-Practicing Entity,NPE)?

  所謂NPE依據現行學術界對於NPE的內涵認知,認為NPE係指不從事任何商品生產,亦不從事任何研發工作者。而在現行NPE的運作態樣上,其可包含兩種類型,其一,為大學和研究機構(例如:公、私立實驗室),其主要係由校內教職員或研究人員進行基礎性研究,並將研究成果授權予其他個人或組織來運用,其本身並不從事任何商品生產者;其二,係由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權本質上的排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。後者,英文稱其為『Patent Troll』,中文可譯為『專利巨人』、『專利蟑螂』、『專利流氓』、『專利地痞』或『專利恐怖分子』等。其主要特徵有三項,首先,此類NPE係藉由專利取得的方式,向潛在或可能的專利侵權者(alleged infringers)收取專利授權金;第二,此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;第三,此類NPE投機性地等待商品製造者(industry participants)在投入不可回復鉅額投資後,始對該商品製造者行使專利侵權主張。

本文為「經濟部產業技術司科技專案成果」

※ 何謂不實施專利實體(Non-Practicing Entity,NPE)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7300&no=67&tp=5 (最後瀏覽日:2026/02/04)
引註此篇文章
你可能還會想看
從美日共同侵權責任認定之實務發展談創新服務方法發明之專利布局策略

員工分紅列費用之會計處理 金管會擬自民國97年起適用

  新修正商業會計法第 64 條規定,商業對業主分配之盈餘,不得作為費用或損失。但具負債性質之特別股,其股利應認列為費用。本條但書即是企業對於員工分紅應與以費用化之法源。配合此一新修正規定,金管會前已邀集業界及產業公會、四大會計師事務所與相關政府單位等,針對員工分紅費用化相關問題共同討論以研擬員工分紅費用化之相關會計處理及配套措施。 金管會及有關單位研討後決定, 在會計處理方面,企業應於期中報表依章程所訂之比率,預估員工分紅及董監酬勞金額入帳。期後董事會決議發放金額有重大變動時,該變動應調整當年度(原認列員工紅利之年度)之費用。至於次年度股東會決議若有變動,則依會計估計變動處理,列為次年度損益。 至於員工分紅配發股數之計算基礎以公平價值評價,上市上櫃公司應以股東會開會前一日之公平市價(考慮除權及除息之影響)計算股票紅利股數;興櫃公司及未上市上櫃之公開發行公司則應以股東會前最近期經會計師查核簽證之財務報告淨值計算股票紅利股數。企業發行員工認股權憑證及買回庫藏股轉讓予員工,應以公平價值法認列為費用。 以上決議將自 民國九十七年一月一日 起的財務報表開始適用。   由於員工分紅費用化,對一向以股票分紅作為獎勵員工的科技產業,可能造成不小的衝擊,因此,金管會也提出「員工認股權憑證制度」及「庫藏股票制度」的配套措施,並將修正「發行人募集與發行有價證券處理準則」與「上市上櫃公司買回本公司股份辦法」。金管會表示,有關本案規劃措施及實施日期,將由經濟部彙整各部會意見,提報行政院,相關措施將配合實施日程發布。

人工智慧即服務(AI as a Service, AIaaS)

  人工智慧即服務(AIaaS)之定義為由第三方提供人工智慧(AI)外包服務,其可使個人和公司基於各種目的進行AI相關實驗,同時毋須於初期即大規模投資或承受高度風險。著名之四大AIaaS供應商為Amazon AWS雲端運算服務、Microsoft Azure 雲端運算平台與服務、Google雲服務、以及IBM雲服務。   AIaaS之優點主要有:(1)降低成本:一般公司無須投資軟體、硬體、人員、維護成本以及不同任務之修改成本,AIaaS供應商可供應不同之硬體或機器學習供公司嘗試運用。(2)即用性:AIaaS供應商提供之AI服務為即用性,無須太多專家介入修改即可使用。(3)可擴展性:可由較小之項目開始試驗,逐步擴張調整服務,因此具有戰略靈活性。然而,AIaaS亦有以下潛在缺點:(1)降低安全性:公司必須交付大量資料給AIaaS供應商,因此資料之機密保護與預防竄改即為重要。(2)增加依賴度:若發生問題時,必須等待AIaaS供應商進行處理。(3)降低透明度:由於是即用性之AI服務,對於內部演算法之運作則屬於未知之黑盒子領域。(4)限制創新:因AIaaS供應商所供應之AI服務需一定程度之標準化,因此限制公司創新發展之可能。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP