美國專利商標局更新專利標的適格性暫行準則

  2015年7月30日美國專利商標局大幅更新其於2014年12月所公布的專利標的適格性(patent subject matter eligibility)暫行準則。這次的更新主要是將各界對於2014年12月版暫行準則的意見納入,並包括了幾項新的適格性與不具適格性申請專利範圍的舉例。儘管有評論指出,美國專利商標局也正研議針對生物技術舉例,但此次所舉之例主要針對抽象概念而非生物技術發明。

  這些舉例係對各種技術提供其他適格的申請專利範圍,以及適用最高法院與聯邦巡迴法院判斷具有其他元件的申請專利範圍是否與法定不予專利標的顯著不同的示例分析。這些例子與在審查人員的教育訓練資料中所載的判例法之判決先例,都將用於協助審查人員在評估申請專利範圍元件(claim element)的專利適格性上能夠彼此一致。

  在更新的暫行準則的第三部份中,美國專利商標局為認定抽象概念提供了進一步資訊,其係有關最高法院及聯邦巡迴上訴法院對於抽象概念適格性判定的司法見解,包括人類活動的特定方法、基本經濟行為、概念本身及數學關係式/公式。

  在更新的暫行準則的第五部分中,美國專利商標局解釋說,適格性的初步證據要求審查人員明確清楚地解釋為什麼無法對所提出的專利申請專利範圍授予專利(unpatentable),以便專利申請人獲得足夠的通知並可以有效地作出回應。

  對於專利適格性,審查人有義務清楚地闡明所提出的專利申請不具有適格性的理由或原因,例如藉由提供判定申請專利範圍中所敘述的法定不予專利(judicial exception)與為什麼它被認定為例外的理由,以及在申請專利範圍中識別其他元件(additional element)的理由(若有的話),及解釋為何未與法定不予專利標的顯著不同。這裡由可以依據在該技術領域之人一般可得之知識、判例法之先例、申請人所揭露之資訊或證據。

  美國專利商標辦公室表示,本次暫行準則歡迎各界給予意見,並至2015年10月28日止。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國專利商標局更新專利標的適格性暫行準則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6978&no=67&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
OECD將制訂加密資產申報綱要

  G20要求OECD(經合組織)儘速制訂加密資產申報綱要(Crypto-Asset Reporting Framework, CARF),以建立「加密資產資訊自動交換制度」,使一國稅務機關有權收集,並與他國稅務機關交換從事加密資產交易者的稅務資訊。故OECD於今(2022)年3月發布公開徵詢文件,並於5月23日召開公開諮詢會議,並期能於今年10月完成CARF之制訂。   蓋人手一機的時代,透過APP買賣虛擬通貨及NFT等加密資產已是滑指日常。因使用區塊鏈技術,去中心化的特性使得所有交易都不需要傳統金融機構的中介或干預,又因為區塊鏈是分散式帳本,因此每一筆交易進行紀錄的礦工幾乎都不同。換言之,加密資產的交易及紀錄都有秘密性,金融機構與國家機關難以查得,就算能查到交易紀錄,也無法查得買賣加密資產雙方的真實身份,因此衍生出投資加密資產如有獲利,如果沒有申報,反正國家也查不到,就不用繳稅的問題。   因此,首段所稱CARF,即為解決前段因區塊鏈技術所引起的稅務挑戰,惟這項全新的交換制度涉及了加密資產與跨國稅務等事務,有賴全球合作,茲事體大,雖然CARF與現在已經在全球實施的稅務資訊自動交換制度類似,但顯有不同。

BSI公布個人資料管理系統標準之草案

  英國國家標準組織(British Standard Institution)於2009年1月8日公布個人資料保護管理系統標準(標準標號為DPC BS 10012)之草案,使組織在個人資料儲存管理工作上符合個人資料保護法(Data Protection Act 1998,DPA)之要求。   有鑑於利用個人資料管理系統(personal information management system,PIMS)管理業務上取得之資料之情形日益增多,而觀諸該資料之性質,通常多為DPA所規範定義的「個人資料」。因此,為使個人資料管理有其標準規範,並得以運用在任何規模之公私部門,使組織內之個人資料管理系統符合DPA之規範且具有一定程度之安全性,BSI試圖提出有關個人資料管理一致性之標準規範,以供組織在個人資料處理程序工作上之遵循。該標準規範如同BS EN ISO 9001:2000之品質管理系統(Quality Management System)及BS ISO/EC 27001:2005之資訊安全管理系統標準,以PDCA週期(Plan-Do-Check-Act)進行規劃,並透過執行所規範之流程落實個人資料之保護。   目前該草案已經公布,BSI於2009年3月31日前將接受各界對於該草案之諮詢及舉辦公聽會,以求標準規範之完善。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

因應2020年社會實現自動駕駛,日本訂定自動駕駛制度整備大綱

  日本IT綜合戰略本部及官民資料活用推進本部於4月17日公佈「自動駕駛制度整備大綱」。大綱設定2020年至2025年間,日本社會實現自動駕駛下,所需檢討修正之關連法制度。   本大綱中,係以2020年實現自動駕駛至等級4為前提(限定場所、速度、時間等一定條件下為前提,系統獨自自動駕駛之情形),以在高速公路及部分地區之道路實現為條件設定。社會實現自動駕駛有以下課題需克服: 道路交通環境的整備:以自駕系統為行駛,一般道路因為環境複雜,常有無法預期狀況發生,導致自駕車的電腦系統無法對應。 確保整體的安全性:依據技術程度,設定一般車也能適用之行駛環境、設定車輛、自動駕駛之行駛環境條件以及人之互相配合,以達成與一般車相同之安全程度為方針下,由關係省廳間為合作,擬定客觀之指標。此一指標,並非全國一致,應就地方之特性,設定符合安全基準及自動駕駛行駛環境條件,建構整體確保安全之體制。 防止過度信賴自駕系統:訂定安全基準,使日本事件最先端自動車技術擴及於世界,訂定包含自駕系統安全性、網路安全等自動駕駛安全性要件指針。 事故發生時之法律責任:自動駕駛其相關人為駕駛人、系統製造商、道路管理者等多方面,其法律責任相對複雜化。現在係以被害人救濟觀點,至等級4為止之自動駕駛,適用自動車損害賠償責任險(強制責任險)方式,但是民法、刑法及行政法等法律全體之對應,仍為今後之課題,必須為早期快速處理。為了強化民事責任求償權行使、明確刑事責任之因果關係、並實現車輛安全性確保、避免所有人過度負擔等,車輛行駛紀錄器之裝置義務化、事故原因究明機制等,關係機關應合作為制度檢討。   本大綱最後並提出,在自動駕駛技術快速發展下,就其發展實際狀況應為持續半年1次召開會議檢討檢討。

TOP