何謂不實施專利實體(Non-Practicing Entity,NPE)?

  所謂NPE依據現行學術界對於NPE的內涵認知,認為NPE係指不從事任何商品生產,亦不從事任何研發工作者。而在現行NPE的運作態樣上,其可包含兩種類型,其一,為大學和研究機構(例如:公、私立實驗室),其主要係由校內教職員或研究人員進行基礎性研究,並將研究成果授權予其他個人或組織來運用,其本身並不從事任何商品生產者;其二,係由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權本質上的排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。後者,英文稱其為『Patent Troll』,中文可譯為『專利巨人』、『專利蟑螂』、『專利流氓』、『專利地痞』或『專利恐怖分子』等。其主要特徵有三項,首先,此類NPE係藉由專利取得的方式,向潛在或可能的專利侵權者(alleged infringers)收取專利授權金;第二,此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;第三,此類NPE投機性地等待商品製造者(industry participants)在投入不可回復鉅額投資後,始對該商品製造者行使專利侵權主張。

本文為「經濟部產業技術司科技專案成果」

※ 何謂不實施專利實體(Non-Practicing Entity,NPE)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7300&no=57&tp=5 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
Facebook併購WhatsApp,主動請求歐盟委員會審查

  社交網站Facebook於2014年2月宣佈將以高達190億美元的價格收購即時通訊軟體WhatsApp。這是近年來對新創公司規模最大的一宗收購案,輕鬆超越Facebook在2012年以超過10億美元買下的相片分享應用程式(app)Instagram,以及去年微軟公司(Microsoft Corp.)花85億美元收購的視訊通話公司Skype。雖然該交易在今年4月就已經獲得美國聯邦貿易委員會(U.S. Federal Trade Commission, FTC)的批准,在歐洲恐怕要面臨反壟斷審查,這是該交易遇到的新障礙。   由於Facebook與歐盟主要的反壟斷機構歐盟委員會(European Commission, EC)聯繫,要求審查這宗轟動的交易案。雖然Facebook這一舉動可能導致該交易在歐盟層面進行正式調查,但卻得以避免在歐盟多個會員國接受繁重的反壟斷調查。布魯塞爾(Brussels)的Cleary Gottlieb Steen & Hamilton律師事務所的反壟斷律師Thomas Graf表示:「比起接受數個國家監管機構審查,Facebook寧可接受歐盟調查,因各國監管機構會分別要求其提供相關資訊。」對此歐盟委員會發言人拒絕發表評論。   倘若要讓歐盟委員會審查該筆交易,公司必須證明其至少符合在三個歐盟會員國接受審查的標準。目前還不能立即清楚地知道其他國家的競爭監管機構是否積極地密切關注該交易。而Facebook提出的請求帶來歐洲多家電信公司強力施壓。他們曾經警告,WhatsApp可被視為一種圖文訊息的低價替代方案,這將使Facebook在歐洲即時通訊市場上取得主導地位。

國際能源總署發布電力市場設計報告,提供批發電力市場監管制度政策建議

國際能源總署(International Energy Agency, IEA)於2025年11月26日發布《電力市場設計:深化既有優勢、補足制度缺口(Electricity Market Design:Building on strengths, addressing gaps)》報告(下稱電力市場設計報告),旨在提供批發電力市場監管制度之政策建議,並深入分析短期、中長期及配套機制等(Complementary Mechanisms)電力市場型態。 IEA指出,世界各國批發市場價格波動,已達到2019年的5至9倍,而歐洲則因自2021年後,批發電價較2019年上升超過4倍,促使當局採取緊急措施以抑制電價上漲,凸顯出具韌性、效率的電力市場的重要性。 根據電力市場設計報告分析,在短期市場(日間、日前和即時市場)方面,歐洲部分地區、美國、澳洲與日本電力市場中,過去5年電力可靠度超過 99.9%。短期市場促成了高效率的排程、透明的價格形成機制,並讓多元資源與各類參與者廣泛參與。 然而,隨著能源變動性與去中心化的程度提高,IEA建議,短期市場應進一步釋放電力彈性並強化協調功能,伴隨天候變化的再生能源滲透率增加,以更細緻的時間與空間粒度(granularity)反映實際情況,將日前市場的時間間隔縮短至15分鐘或更短,並將大型投標區域劃分為較小的區塊,以反映電網的實際負載狀況。 至於長期市場方面,泰半並未回應日益增加的投資需求與不確定性風險,市場參與者可用的風險管理工具有限;而購售電合約(Power Purchase Agreements, PPAs)在長期市場薄弱的情況下,澳洲、日本、歐洲與美國等國,約有半數至75%的CPPA係由年營收超過10億美元的公司簽署,較小型參與者的採用程度有限。特別是「隨發隨付型」(pay-as-produced)的PPA亦可能與短期市場訊號不相匹配,影響市場參與者的判斷。因此,僅憑PPA本身,無法完全取代運作良好的長期市場所應發揮的功能。 因此,IEA進一步建議,引入「政府或公共信用擔保機制」(public credit guarantees)以降低信用門檻,或是設立可採購長期合約並提供買家短期合約轉售電力的中央機構(central entity that contracts long term and resells shorter-term contracts to buyers);而在市場配套機制方面(包含躉購費率、差價合約等),必須與短期和長期市場緊密協調,以避免產生非預期的負面效果。設計不佳的機制可能削弱價格信號、增加系統成本並製造不確定性。

歐洲議會通過支付服務指令修正草案

  歐洲議會(European Parliament)於今(2015)年10月8日通過支付服務指令的修正草案(revised Directive on Payment Services; 簡稱PSD2),修正後的支付服務指令將能降低消費者使用支付服務時所花的費用、提升支付服務的安全性、吸引業者投入支付服務領域及促進支付服務的創新。   未來,擁有網路帳戶的付款人可以利用第三方支付業者提供的支付軟體及設備進行付款。新法中也明訂,若付款者使用支付工具,如金融卡(Debit Card)或信用卡(Credit Card)為付款時,支付業者不得向付款人收取額外的費用,這個規定使付款人得以省下一筆開銷。   新法也規定,提供付款人帳戶資訊的銀行,若對第三方支付業者有安全上的疑慮時,其向監管機關提出客觀合理的理由後,得拒絕第三方支付業者向其存取付款人的帳戶資訊。   另外,為降低用戶被盜款的風險及保障用戶的財務資料,支付業者有義務提供嚴格的用戶認證機制(strong customer authentication)。此機制藉由確認付款人的密碼、使用的卡片或聲音或指紋的認證來確認付款人的身分。而當用戶的付款工具(payment instrument)遺失、被竊取或不當利用,而造成有未經用戶同意而為支付的情況發生時,依新法規定,用戶負擔之損失,最多不得超過50歐元。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP