何謂專利適格(Patent Eligibility)的兩階段標準(Two-Step Test)?

  「專利適格」(Patent Subject Matter Eligibility)用淺白的文字解釋,就是成取得專利的基礎門檻、資格。專利適格的司法排除事項(Judicial Exception)為:「自然法則、自然現象、抽象概念」。而「兩階段標準」的導入,是給司法排除事項「敗部復活」的機會。

  可取得專利適格的標的於35 U.S.C. §101有明文:「任何人發明或發現新穎而有用之程序(Process)、機器(Machine)、製品(Manufacture)或物之組合(Composition of Matter),或其新穎而有用之改良,皆得依據本法所定規定及要件就其取得專利權利。」但符合§101的敘述,不必然具專利適格。最高法院表示:「自然法則、自然現象、抽象概念是科學與科技成品的基礎,不可被獨佔。」然而,隨愈來愈多的發明與發現推出、電腦文明的發展,司法排除事項亦受挑戰,在 Mayo v. Prometheus,最高法院首次針對自然法則和自然現象提出「兩階段標準」。基此,美國專利與商標局(USPTO)2012年發表專利審查綱要。後續,Alice v. CLS Bank中,引「兩階段標準」將兩階段標準應用在「電腦應用過程、電腦系統、減免交割風險的電腦可讀媒介」的抽象概念。USPTO也將「兩階段標準」編入專利審查手冊(Manual of Patent Examining Procedure)。

USPTO專利審查手冊公布的「兩階段標準」:

第1步:四種可取得專利適格的標的(35 U.S.C. §101)

  程序、機器、製品、物之組合。

第2A步:司法排除事項

  假設不是「自然法則、自然現象、抽象概念」三種司法排除事項,則具專利適格;若是司法排除事項,則進入第2B步。

第2B步:是否「更具意義」(Significantly More)?

  這一個步驟是「敗部復活」。如果該發明存在「發明概念」(Inventive Concept),則符合「更具意義」,可取得專利適格;反之,則無專利適格。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 何謂專利適格(Patent Eligibility)的兩階段標準(Two-Step Test)?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8171&no=66&tp=1 (最後瀏覽日:2026/02/13)
引註此篇文章
你可能還會想看
當個人隱私遇上公共利益--從個資法角度談市長候選人病歷外洩事件

從間諜軟體談起

加拿大隱私專員與首席選舉官針對聯邦政黨發布個人資料保護指引

  加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)與加拿大首席選舉官(Chief Electoral Officer of Canada, CEO)於2019年4月1日聯合針對聯邦政黨發布個人資料保護管理之指引(Guidance for federal political parties on protecting personal information)。目前加拿大選舉法(Canada Elections Act, CEA)僅概括規範政黨須制定隱私政策,以保護選民之個人資料,惟其卻未有具體法規制度落實。對此加拿大隱私專員辦公室認為政黨必須提出具體隱私政策來履行其法律義務。   現行加拿大選舉法規範聯邦政黨必須於其網站上公布隱私政策,並提交給加拿大選務局(Elections Canada)。若其隱私政策變更,必須通知首席選舉官,且即時更新網站上隱私政策版本。加拿大聯邦各政黨須於2019年7月1日前完成相關規範,為具體實踐政黨隱私保護制度,加拿大隱私專員辦公室提出幾點隱私政策之必要條件: 一、 聲明蒐集個人資料之類型與如何蒐集個人資料? 二、 如何保護其蒐集之個人資料? 三、 說明如何利用個人資料?是否會將個人資料給予第三方? 四、 針對個人資料蒐集、利用之人員如何培訓?內部控管機制為何? 五、 蒐集分析之資料為何?是否有利用cookie或相關應用程式蒐集? 六、 設置處理個資隱私疑慮專責人員   除此之外,該辦公室更建議參採國際隱私保護作為,著重公平資訊原則,政黨於個資隱私保護上須有其問責制、目的明確性、透明化、限制性蒐集,且未經當事人明確同意不得蒐集政治觀點、宗教或種族等敏感性個資,並應建置保障性措施與合規性管理機制。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP