何謂防禦型聯盟(Defensive Patent Aggregator)?其是否為NPE的重要類型?

  防禦型專利聯盟係為NPE之一種重要類型,主要以抵制NPE侵擾為出發點,防禦型聯盟儘可能搶先攻擊型如NPE者去進行專利的授權或購買,加入防禦型聯盟者則可付出比與NPE進行和解所支付費用較少的金錢,成員其會員以取得不被NPE侵擾的地位。

  NPE中屬於防禦型聯盟(Defensive Patent Aggregator)者,RPX(Rational Patent)之運作模式常可作為主要類型化參考對象之一。RPX為上市公司,其主要核心業務在於「緩和其會員被訴之可能」。RPX取得專利之資金主要來自會員年費,而各會員可取得RPX所有專利之「授權」,而收費結構不當然等於獲取專利之成本之分攤,以使會員已低於一般訴訟和解、或取得爭議專利等更為低的代價來防止被訴。在此同時,RPX本身也不會對他人起訴。

  RPX所提供的防禦性聯盟策略,先行於其他NPE取得前那些潛在「危險性」的目標專利,甚至有可能向NPE取得專利,必要時,直接於訴訟仍在進行之時去取得專利。而在防禦以外,如其他非會員向會員起訴,會員也可以以RPX所有之專利進行反訴。

  目前RPX會費在6萬5千美元至6900萬美元之間,依照會員本身營運規模之不同定之,但「會費等級」(rate card)會自加入之初鎖定不再更動,實際每年繳交費用則可能依據RPX所取得的所有專利價值增加而上昇 。而除此主要運作模式外,RPX也運用其廣泛取得專利之經驗,提供個別企業服務服務,得以較低的躉售價格取得專利(Syndicated Acquisitions),反之企業自行購買專利可能需要付出較高的「零售」價格

  RPX的運作模式對於加入成為其「會員」者有兩項優勢:第一,減少「專利蟑螂」可取得的專利數量;其次,因可理解為全體會員合力進行防禦型專利取得故能減低這些專利取得之成本。

本文為「經濟部產業技術司科技專案成果」

※ 何謂防禦型聯盟(Defensive Patent Aggregator)?其是否為NPE的重要類型?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7320&no=64&tp=1 (最後瀏覽日:2026/04/17)
引註此篇文章
你可能還會想看
行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題

美國聯邦準備理事會、FDIC與OCC發布聯合聲明,提醒關於加密資產流動性風險

有鑑於加密資產(crypto-asset)投資交易潛在風險與市場波動性,美國聯邦準備理事會(Federal Reserve Board)、聯邦存款保險公司(Federal Deposit Insurance Corporation, FDIC)與通貨監理局(Office of the Comptroller of the Currency, OCC)於2023年2月23日發布聯合聲明,提出加密資產增加銀行流動性風險情境,例如穩定幣因市場狀況之變動,導致銀行擠兌使大量存款流出,由於存款流入和流出的規模與時間的不可預測性,加密資產相關資金恐造成流動性風險提高,提醒銀行機構應用現有的風險管理原則審慎因應。 依據聲明內容,有效風險管理作法包括:(1)了解加密資產相關實體存款潛在行為的直接和間接驅動因素,以及這些存款易受不可預測波動影響的程度;(2)銀行機構應積極監控加密資產資金來源存在的流動性風險,並建立有效的風險管理控制措施;(3)應與加密資產存款相關的流動性風險納入應變計劃(contingency funding planning),例如流動性壓力測試;(4)評估加密資產相關實體存款之間關聯性。該聲明並強調銀行機構應建立風險管理機制及維持適當有效之內部控制制度,以因應加密資產高流動性風險,確保經濟金融穩健發展。

日本內閣府召集研究小組 解決因AI帶來之智財問題

日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。 日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP