美國管理不實施專利主體立法進程與趨勢

美國管理不實施專利主體立法進程與趨勢

科技法律研究所
法律研究員 劉憶成
2015年07月30日

壹、不實施專利主體概述

  「不實施專利主體(non-practicing entity, 以下簡稱NPE)」乃是一個中性的名詞,NPE一方面可促進專利技術交易市場的活絡,但另一方面也有NPE不以活絡專利技術交易市場為目的,而是透過以低價購買專利成為專利權人,並據以行使《專利法》上之權利,投機性地靜待商品製造者投入不可回復之鉅額投資後,始對該商品製造者行使專利侵權主張,對於後者有人將其稱之為「Patent Troll」(中文有譯為「專利巨人」、「專利蟑螂」、「專利流氓」、「專利地痞」或「專利恐怖份子」等等,以下統譯為「專利地痞」)。

  專利地痞藉由有問題的專利申請範圍恐嚇企業並勒索和解金的案例激增,對美國造成數十億美元的經濟耗損並且破壞了美國的創新,其橫行的技術領域以智慧型手機及其他消費性電子產品為最。根據加州舊金山的專利顧問公司RPX所作的研究,至2014年,美國專利侵權訴訟中有63%的訴訟是由專利地痞所提起,而受害公司花費在法律費用、和解或判決的費用約122億美元。因此如何降低專利訴訟的成本、降低無效專利的數量及提升專利權的授予品質都成為美國的重要政策目標。

貳、美國政府的對應措施

  為了解決專利地痞所帶來的問題,美國早在2011年由國會通過《萊希-史密斯美國發明法(Leahy-Smith America Invents Act of 2011),以下簡稱AIA》,該法並於2012年生效。其目的在於透過改善美國專利制度,包括為發明人提供專利處理程序的快速通道、採取重要步驟來降低專利案件的積壓及提升美國人在國外保護其智慧財產權的能力等等。

  不過,專利地痞所帶來的挑戰依舊,特別是專利地痞提出侵權訴訟之成本與被控侵權公司為了防禦所付出的成本之間不具對稱性,這使得專利地痞有機會以和解取得利益。因此,2013年美國政府曾向其國會提出立法七項建議,也祭出五項行政措施,使專利制度更具有透明性,並為發明者創造一個公平競爭的環境。

參、美國國會積極立法

  對此,美國開始了多項進一步管理專利地痞的立法進程。以下將就2015年美國國會針對專利地痞所提出之法案進行介紹。

  (一)新版創新法案(the Innovation Act)

  本法案2015年2月5日送入美國眾議院審議,其法案接續2011年的「美國發明法案」(the American Invents Act,AIA),企圖進一步解決專利地痞濫用訴訟之難題,其中重要條款包括:由敗訴方負擔律師費、提高專利訴訟的成案基準(pleading standard)、專利權人揭示制度、客戶中止訴訟程序等等。

  (二)警告函透明法案(Demand Letter Transparency Act of 2015)

  美國眾院於2015年4月20日提出《警告函透明法案》,該法案首先要求美國專利與商標局(USPTO)建立一個公開可查詢的警告函資料庫,然後要求大量寄發侵害警告函的行為人必須透過這個資料庫對USPTO揭露其行動,同時侵害警告函的內容也必須記載這些資訊,使收信人能夠公平得知。

  (三)保護美國人才與企業法案

  美國參議院於2015年4月底針對抗衡美國patent troll提出法案,該法案名為《the Protecting American Talent and Entrepreneurship (PATENT) Act》。希望能制止美國近年來濫用美國專利制度,所造成許多不必要之專利訴訟案件等情形。美國眾議院於2015年5月底又針對PATENT Act法案作出修正,希望在打擊專利地痞的同時,又不至於而造成專利權人濫用AIA的保護。

肆、結論

  為了解決專利地痞的問題,美國政府分別從立法及行政措施著手,依據美國歐巴馬總統的建議,不論是美國政府或是美國國會,刻正積極雙管齊下透過各項行政手段,例如修改專利相關規則,或者透過國會立法方式,對專利地痞進行規制。其實,專利地痞不僅橫行於美國,其亦在許多國家從事相關活動,故美國相關行政措施與立法,勢必成為各國在解決專利地痞問題時的重要參考依據,因此美國各項法案的後續發展,都值得吾人繼續關注。

本文為「經濟部產業技術司科技專案成果」

※ 美國管理不實施專利主體立法進程與趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6953&no=67&tp=1 (最後瀏覽日:2026/01/12)
引註此篇文章
你可能還會想看
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

日本自動駕駛損害賠償責任研究會報告

  為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。

世界經濟論壇發布《2022年全球網路安全展望》

  世界經濟論壇(World Economic Forum, WEF)於2022年1月18日發布《2022年全球網路安全展望》(Global Cybersecurity Outlook 2022),以面對因COVID-19大流行所致之遠距辦公、遠距學習、遠距醫療等新形態數位生活模式快速發展,以及日漸頻繁之具破壞性網路攻擊事件。為考量國家應優先考慮擴展數位消費工具(digital consumer tools)、培育數位人才及數位創新,本報告說明今年度網路安全發展趨勢及未來所要面對之挑戰包括如下: COVID-19使得工作習慣轉變,加快數位化步伐:約有87%企業高階管理層計畫透過加強參與及管理第三方的彈性政策、流程與標準,提高其組織的網路韌性(cyber resilience)。 企業資安長(chief information security officers, CISO)及執行長(chief executive officers, CEO)之認知差異主要有三點:(1)92%的CEO認為應將網路韌性整合到企業風險管理戰略中,惟僅55%CISO同意此一作法;(2)由於領導層對網路韌性認知差異,導致安全優先等級評估與政策制定可能產生落差;(3)缺乏網路安全人才以面對網路安全事件。 企業最擔心之三種網路攻擊方式為:勒索軟體(Ransomware attacks)、社交工程(social-engineering attacks),以及惡意內部活動。惡意內部活動係指企業組織之現任或前任員工、承包商或業務合作夥伴,以對組織產生負面影響方式濫用其關鍵資產。 憂心中小企業數位化不足:本研究中有88%之受訪者表示,擔心合作之中小企業之數位化程度不足,導致供應鏈或生態系統中使其網路韌性受阻。 網路領導者認為建立明確有效的法規範,將有助於鼓勵資訊共享與促進合作。

南韓個人資料保護委員會宣布通過修訂個人資料保護法施行法

2024年3月6日,南韓個資保護委員會(Personal Information Protection Commission, PIPC)宣布通過個人資料保護法施行法(Enforcement Decree of the Personal Information Protection Act, PIPA Enforcement Decree)修正案,並於2024年3月15日正式實行。 本次修法重點如下: 1.明訂個資主體可要求公開自動化決策過程之權利及應對不利結果時可採取之措施 針對使用AI等自動化系統處理個資並做出的自動化決策,個資主體(即,個人)有權要求解釋決策過程並進行審查,尤其當決策結果對個資主體權益有重大影響時(例如:不通過其社福補助申請),個資主體可拒絕自動化決策結果,並要求改為人為決策及告知重新決策結果。另為確保透明、公平,自動化決策依據的標準與程序亦須公開,並於必要時向公眾說明決策過程。 2.確立隱私長(Chief Privacy Officers, CPOs)的資格要求及適用範圍 為確保CPO能順利開展個資保護工作,要求處理大量或敏感個資機關之CPO至少具有4年個資、資安相關經驗,且個資經驗至少2年。適用機關包括:年營業額達1,500億韓元以上、處理超過100萬人個資或超過5萬人特種資料者;學生超過2萬人的大學;處理大量特種個資的教學醫院或大型私人醫院等;疾管局、社福、交通、環保等公共系統運營機構。 3.明訂評估公共機構個資保護效能之標準及程序 依據個資法第11-2條規定,PIPC每年需對公共機構(如:中央行政機關及其所屬機關、地方政府及總統令規定者)進行個資保護程度評估,而為使評估作業有所依循,本次新增評估標準及相關程序包括:政策和業務表現及其改進情形、管理體系適當性、保護個資措施及執行情形、防範個資侵害及確保安全性措施及執行情形等。 4.調整需要承擔損害賠償責任的適用範圍及門檻 為確保機關履行個資主體損害賠償責任,將需履行投保保險等義務之適用範圍由網路業者擴大至實體店面及公共機構等。同時,調整適用門檻,將年銷售額由5千萬韓元調整為10億韓元、個資主體數由1千人調整為1萬人,以減輕小型企業負擔。另亦明訂可豁免責任的對象包括:不符合CPO資格的公共機構,公益法人或非營利組織,及已委託給已投保保險之專業機構的小型企業。 PIPC另將公布一份指引草案,內容包括自動決策權利、CPO資格要求、公共機構個資保護評估標準、賠償責任保障制度等,並舉行說明會來收集回饋意見。

TOP