美國專利商標局公布2019年專利適格性審查指南

  美國專利商標局在2019年1月4日公布專利適格性審查指南(2019 Revised Patent Subject Matter Eligibility Guidance, 下稱新審查指南)。新審查指南對於如何使用美國最高法院Alice/Mayo測試法第一步驟(步驟2A),判斷專利請求項是否指向司法排除事項(judicial exception),做了兩個主要修改:

  (1)明確屬於「抽象概念」的排除事項包括:數學概念、組織人類活動的特定方法與心智活動。新審查指南並舉例說明數學概念包括數學關係、公式或方程式;組織人類活動的方法包括基本經濟原則或實踐、商業或法律互動關係,或管理個人行為或人與人之間的關係或互動;心智活動包括人類在心中執行的思想,例如觀察、評估、判斷或意見。根據新審查指南,審查委員不再需要將專利請求項與過去的判例比較來判斷專利標的是否屬於抽象概念。

  (2)將判斷請求項是否指向司法排除事項的第一步驟(步驟2A)改為兩階段測試。首先,審查委員評估請求項是否屬於司法排除事項(自然法則、自然現象、抽象概念),若是,要進一步評估請求項是否有其他要素(element)可將該司法排除事項結合到「實際應用」中。若可,則不屬於司法排除事項。若無法將其結合到「實際應用」中,才須進行Alice/Mayo測試法第二步驟(步驟2B)的審查。新審查指南也對其他要素結合司法排除事項的「實際應用」提供例示,包括:反映電腦功能或其他技術的改進、應用該司法排除事項使特定疾病或醫療狀況的治療或預防產生效果、將該司法排除事項用在特定機器或製品中且在請求項中限定使用的機器或製品、使特定物品轉換到另一種狀態或成為另一種物品。

  此修改將增加審查委員以抽象概念核駁專利請求項的舉證負擔,審查委員必須闡明為何發明不構成步驟2A中的「實際應用」,還要在步驟2B證明為何該元素屬於已熟知、常規或習知的行為。因此,新審查指南將使審查委員要以抽象概念核駁發明,特別是軟體相關發明的難度變高。

  新審查指南已於2019年1月7日生效並徵求公眾意見,後續還可能會發生變化。此外,由於該指南不具有法律約束力,因此法院將如何根據新審查指南評估核准專利之有效性仍有待觀察。

「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
你可能會想參加
※ 美國專利商標局公布2019年專利適格性審查指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=57&tp=1&d=8168 (最後瀏覽日:2024/05/27)
引註此篇文章
你可能還會想看
保護、分級與言論(下)

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

歐洲化學品管理署(ECHA)下的社會經濟分析委員會已開始針對限制性措施展開風險管理及成本利益分析等相關工作

  今年(2008)4月2-3號,歐洲化學品管理署(ECHA)下,為社會經濟分析(Socio-economic)目的所設置之委員會,於赫爾辛基(Helsinki)舉行了首次的會議。歐洲化學品管理署執行長Geert Dancet在其公開聲明中提到:「對社會經濟分析委員會(SEAC)之挑戰,是因其被REACH法規範所引用而產生;而此種模式,亦將成為歐盟化學物質立法制度下的一項新工具。其還強調,應同時平等地考量並兼顧到產業、環境及健康等三方面因素,並以前三項因素皆已臻衡平之方式來進行交易」。   此外,於REACH法規範下,該委員會於限制與管理流程上,亦扮演著重要角色。其將掮負起為該署準備關於:申請管理、限制措施建議案提出、以及其他在REACH法規範下與化學物質管理有關之立法措施所將可能導致歐洲社會經濟方面之影響與衝擊等問題,提出相關意見。而目前,就於化學品範圍內,對可能之立法措施未來所將產生的衝擊進行社會經濟面之評估而言,此舉,實為一新且未知的一塊領域。   此外,透過此次會議,除決定了該委員會日後運作之模式外,也達成共識ㄧ致認為:透過此種模式,將能夠保障委員會運作之透明性;同時,還一併能兼顧到它的獨立性,及相關資料的隱密性。目前,該運作模式將待歐洲化學品管理署董事會議正式審核通過後,即開始生效。最後,社會經濟分析委員會於2008年間規畫,擬將舉行兩次會議,而下一次的會議則已預定將於10月份召開。

加拿大批准並加入《專利法條約》

  加拿大於2019年7月30日批准並正式加入國際智慧財產權組織(World Intellectual Property Organization,下稱WIPO)的《專利法條約》(Patent Law Treaty, PLT)。為加入《專利法條約》,加拿大智慧財產局2018年12月1日即公告新修正的專利法,而修正後的專利法和新的專利細則即將在2019年10月30日生效,而這些新修正的條文會確保加拿大落實《專利法條約》。專利權採屬地主義,亦即在一個國家授予的專利權,僅在該國法律管轄的範圍內有效,對其他國家沒有拘束力。原先,若在加拿大申請專利要再申請他國專利,僅有12個月的優先權(right of priority);加入《專利法條約》後,在加拿大進行國際申請(international application),即可在其他會員國擁有國際申請期日(international filing date)起算至少30個月的優先權。   近年來,加拿大智慧財產權局積極規畫參與五項WIPO的智慧財產權條約,以減少繁瑣的行政負擔,包括:工業設計的《海牙協定》(Hague Agreement)、商標的《馬德里議定書》(Madrid Protocol)、《新加坡條約》(Singapore Treaty)、《尼斯協定》(Nice Agreement)和專利的《專利法條約》。《專利法條約》是加拿大計畫參與的WIPO智慧財產權條約中最晚完成的一項。加拿大希望透過加入《專利法條約》並修正國內專利行政流程以提升申請流程之效率,進而活絡商業活動;同時也確保《專利合作條約》(Patent Cooperation Treaty, PCT)締約國權利的完整性。2000年於日內瓦通過的《專利法條約》宗旨在於:協調並簡化國家和地區專利申請和專利維護的形式程序;1978年生效的《專利合作條約》則是提高締約國的專利申請程序一致性。儘管《專利法條約》締和《專利合作條約》是兩個獨立的條約,都是WIPO之協定,相輔相成,健全世界專利體系─《專利法條約》締約國在修改內國法規以符合要求後,會更趨近於《專利合作條約》改善專利申請程序的理想。

TOP