美國政府課責署重視NPE濫訴現象,並提出「patent monetization entities」概念

  近年專利蟑螂(Paten Troll)、非專利實施實體(Non-Practicing Entity, NPE)的興起,使得國際上智慧財產權的運用出現巨幅變化。美國政府、企業及學界皆認為專利蟑螂濫訴現象為亟待解決之課題,而相繼投入研究,並於近日陸續發表重要之研究報告。

 

  繼今年(2012)8月,美國國會研究處 (Congressional Research Service)提出對抗專利蟑螂之研究報告後(“An Overview of the "Patent Trolls" Debate”)。隸屬國會的政府課責署(Government Accountability Office, GAO, 另譯審計總署)所資助的研究團隊,亦於杜克大學科技與法律評論(Duke Law & Technology Review)發表相關研究。研究團隊採取實證的研究方法,於2007年~2011年間,每年度隨機抽樣100家涉及專利訴訟的公司,總計抽樣500家公司。依據該項研究結果,去年(2011)由NPE所提起的專利訴訟,佔研究樣本的40%,相較於5年前的數據,成長幅度高達2倍。本項研究可歸納以下兩項要點:

 

  1.專利訴訟主體的變化

 

  由NPE為原告所提起的專利訴訟數量呈現極速成長;由企業為原告者則逐年下降;同為非專利實施實體之大學,其作為原告所提起之訴訟則未達1%。

 

  2.訴訟並未進行實質審理

 

  由NPE提起之訴訟,其目的在於獲取和解金或授權金,故絕大多數係申請作成即時判決(summary judgement),即當事人一致認為對重要事實不存在爭議,而向法官申請不為事實審理,僅就法律問題進行裁決。

 

  就此,該研究團隊認為,NPE已成為專利制度,甚至係整體經濟之一環,故提出應以「patent monetization entities」取代過往NPE的稱呼,強調此類公司以專利授權或專利訴訟作為公司營利之來源,如此將更為貼切。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國政府課責署重視NPE濫訴現象,並提出「patent monetization entities」概念, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5875&no=67&tp=1 (最後瀏覽日:2025/12/31)
引註此篇文章
你可能還會想看
日本政府擬修法擴大個人編號卡(My Number Card)資料使用及調取範圍

日本政府於2022年11月29日公布「個人編號法」(平成二十五年法律第二十七号,行政手続における特定の個人を識別するための番号の利用等に関する法律)之預計修正內容。 目前個人編號法第9條第2項主要限定於社會保障、稅收、災害防治三個領域,該法對哪一些行政機關能調取,以及可調取個人資料的種類均有詳細規定。本次修正案目的為將個人編號的用途擴大,除了前揭所提三個領域外,將再包括國家資格管理、汽車登記以及外籍居民行政程序、國家急難救助金及其他津貼發放等。其次,為擴大個人編號用途與增加運用彈性,此次修法重點之一在於擴大該法第4章第19條特定個人編號(My Number)提供限制中,第17款關於其他依據「個人資料保護委員會」所訂規則準用事項範圍。未來日本政府可透過「政省令」的修改(基於國會立法授權,而由行政部門所頒訂,具有對外法拘束力,類似我國法規命令位階),讓政府及相關機關能在有需要時即可蒐集特定個人編號,以迅速、彈性地對應外在情況。 本案若經國會審議通過後,細節部分還需約時二年修改作業系統,最快預定令和7年(2025年度)施行。其他修正重點如:1.將公家機關掌握民眾銀行帳戶資訊和個人編號自動連結,此舉係為改善疫情期間之問題,未來將可使政府發放補助金及急難救助金時更為順暢;2.尚未取得個人編號卡仍可申請「資格確認書」參加社會保險或診療;3.嬰幼兒五歲前「個人編號卡」都不須附上照片等。 唯輿論有批評,在尚未經過國會及有識者充分討論前,貿然大幅擴大資料調取、使用範圍,尤其日本政府計畫將個人所有銀行帳戶都強制連結個人編號,可能讓政府更容易掌握民眾資訊,像是追蹤稅務狀況、打擊逃漏稅等。日本「個人編號法」主管機關總務省則再三保證個人編號卡晶片不會儲存稅金、年金等個人資料,即使作為醫療或健康用途時,也不會紀錄健檢結果和服用藥物等訊息。雖然仍有部分待改進處,惟日本以專法規定個人編號卡儲存資料之種類與範圍,並於該法中說明相關管理措施,仍值得我國未來密切關注。

2016年生物支付技術將可能取代傳統支付型態

  根據美國公共電視台在2016年1月6日的新聞,指出生物支付將可能成為新興支付工具。生物支付之定義為利用生物辨識(biometric)技術驗證個人生物特徵,諸如:指紋、虹膜等進行支付。採用生物支付技術,未來將無須使用信用卡或行動裝置,僅需要個人生物特徵之辨識即可完成交易。此轉變將使未來交易更加快速、便利,但同時,生物支付的安全性卻也不無疑義。   即便生物辨識屬於高層級的資訊安全保護機制,但水能載舟,亦能覆舟。生物辨識利用生物不可變之特性進行身分識別,涉及高度個人隱私,為妥善保護個人資訊安全,需訂立生物辨識相關規範加以管制,否則將衍生許多法律問題。   例如:在2015年6月,美國線上出版商Shutterfly公司被控訴違法蒐集個人資料。原告稱其並非Shutterfly公司之註冊使用者,也從未同意其生物辨識資訊被該公司蒐集,但其面紋(Face print)卻被上傳至該公司網站,並標註姓名,儲存在自動針對相片標記臉部辨識系統之資料庫。 依據BIPA針對生物辨識定義及蒐集規範: 1.第10條: 生物辨識之態樣,包含視網膜、虹膜掃描、指紋或是手部、臉部外觀之掃描,但不包括簽名、照片、用於科學檢測之人體樣本、頭髮顏色等。 2.第15條(a): 規定公司蒐集個人生物特徵資訊應有相關規範供公眾查閱,並應提供生物辨識資訊之保管及銷毀日期及相關資訊。 3.第15條(b)(1): 蒐集生物辨識資訊應告知當事人。   Shutterfly公司提出要求法院不受理之抗辯,主張BIPA規定之臉部外觀,其文意解釋應為物理上個人親自接受掃描所得之資訊,並非原告所主張以照片辨識之臉部外觀,但法院認為Shutterfly之主張並不合理,因此同意受理此案。   觀察該案可發現,儘管生物辨識提高資訊安全之保護,但相關法規範解釋仍待實務完備。另一方面,生物特徵資訊極易被他人蒐集,因此,如何建置蒐集個人辨識資訊及完善相關措施,也是推行生物支付措施所需突破的關口。

歐洲議會於2022年初通過數位服務法(DSA)

  歐洲議會(European Parliament)於2022年1月20日通過數位服務法(Digital Services Act),該法旨在監管線上服務提供者(online service providers),為線上服務接受者提供更安全線上空間,包含要求線上平臺應(1)打擊線上非法服務或內容;(2)提供通知並刪除/下架(notice and action)機制,不得有差別性或任意性對待;(3)提供無廣告追蹤(tracking-free ad)選項,和禁止將未成年人資料用於定向廣告(targeting advertising);(4)對於線上平臺課以行政責任,如:超大型線上平臺(very large online platforms, VLOP)若故意或過失違反義務,最高罰鍰可被處以前一會計年度總營業額6%,或按日連續處罰最高可處前一會計年度平均每日營業額5%。若可能致危害生命或人身安全,主管機關亦可勒令其停止提供服務;(5)強制性風險評估和提高演算法透明度,以打擊有害內容(harmful content)和虛假資訊。   數位服務法所規範的服務主要有四種類型,四種服務提供者負擔累計義務(cumulative obligation),其中VLOP被賦予最多責任,因其對於散布非法內容並造成社會危害具有特殊風險,須具備風險減緩、獨立稽核等機制。相關服務定義如下: (1)中介服務提供(Intermediary Service):提供網路基礎建設服務。 (2)託管服務提供(hosting service):由服務接受者提供資訊並應其要求提供資訊儲存服務,例如:雲端儲存服務、網站主機代管等服務。 (3)線上平臺(online platform):包含類型線上市集、應用程式商店、以及社群媒體平台。 (4)VLOP:每月平均歐盟境內活躍用戶達4500萬以上或人口10%之線上平臺。例如:Google、Facebook及YouTube。   此數位服務法草案最早在2019年年底提出,歐洲議會於今年投票通過後,尚待歐盟理事會(Council of the European Union)審查同意後,此法即正式發布施行。歐洲議會於審查所提出之修正建議,除針對前述五大重點外,還特別強調對於微中小型企業(MSMES)相關義務的免除,以及禁止線上平臺使用欺瞞(deceiving)或助推(nudging)方法影響消費者購物選擇。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP