美國國會提出SHIELD法案 圍堵專利蟑螂橫行

  為反制專利蟑螂利用訴訟方式滋擾實際從事研發以及實施專利者,美國國會於2012年8月提出SHIELD法案(Saving High-Tech Innovators from Egregious Legal Disputes Act of 2012 ),顧名思義本法案之目的在於防免高科技創新者陷於惡意挑起的法律爭端之中。該法案補充美國聯邦專利法規定,使得法院得在發現當事人一造並無合理勝訴之可能而仍舊對電腦硬體或軟體專利之有效性提起訴訟,或主張被侵權時,法院得判決其回復全部訴訟之費用支出予除美國以外勝訴之一造(the prevailing party),包括合理之律師費。

 

  SHIELD法案原立意良善,但其也可能就像兩面刃,例如法案的規範內容用語抽象,以致於在企圖達到其立法目的外,未同時設想可能造成的法律陷阱或未預期之法律效果。就法案內容來看,其賦予法院得判決要求回復訴訟費用及律師費之人(所謂勝訴之一造)並不限於原告。又本法案得適用在任何電腦或軟體專利的訴訟,因此,當兩家大型公司相互就專利實施進行對決時,SHIELD法案無異使得原本已經成本很高的競爭更提高雙方的賭注。此外,法案中對「電腦」的定義,不限於一般認知的「軟體或電腦硬體公司」,使得從金融業到汽車製造都可能涵蓋在內,例如銀行就有許多系統可能同時連接具專利之電腦或其他軟體組件。更重要的是,何時勝訴方可獲得律師費之補償判決,法案亦沒有給法院明確之範圍。

 

  雖然本法案最後通過與否或通過施行後的樣貌仍未可知,但可得知的是對於部分NPE之負面利用專利制度之行為,已促使政府與法界思索專利制度如何衡平專利權保護而更能達到專利制度設置之目的,而其未來顯然仍有一段遙遠的路要走。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國國會提出SHIELD法案 圍堵專利蟑螂橫行, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5968&no=64&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
美國國際貿易委員會(USITC)指出中國大陸對侵害智財權執法不力成為美國企業嚴重問題

  美國國際貿易委員會(United States International Trade Commission)最新公布一份報告指出,中國大陸對於侵害智慧財產權(中國大陸稱知識產權)的立法與執法不力,在中國市場降低了美國企業的獲利能力,例如產品被非法與低成本的仿冒。   報告指出,中國大陸因為重大的結構性與體制性障礙,妨礙了對智慧財產權侵害的執法效果,包括地方政府對侵害企業的保護,各政府單位間缺乏協調,執法的資源與人員訓練不足,相關的民刑事法令也缺乏嚇阻效果。   由於中國大陸對智慧財產權侵害的執法不力,助長中國境內廣泛的侵害美國公司的商標、專利、營業秘密等權利,對於許多美國公司,特別是小公司而言,智慧財產權是重要資產,但缺乏在中國境內保護自己智慧財產權的資源。   報告還指出,在2009年所有美國海關扣押貨物的案件中,來自中國大陸佔79%,來自香港佔10%,整體金額達到2.047億美元。中國大陸有24萬家網咖,使用非法軟體。中國大陸的產品與商標仿冒問題仍十分常見,就算是支付權利金,與其他國家比較,中國大陸所支付的智慧財產權利金僅是一小部分。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

論析各國之企業智慧資產揭露機制

行動生活之隱私爭議-現行法制能否妥善處理位置資訊衍生問題

TOP