歐洲專利局拒絕以AI為發明人的專利申請

  歐洲專利局於2019年12月20日,拒絕受理兩項以人工智慧為發明人的專利申請,並簡扼表示專利上的「發明人」以自然人為必要。另於2020年1月28日發布拒絕受理的完整理由。

  系爭兩項專利均由英國薩里大學教授Ryan Abbott(下稱:專利申請人)的團隊申請,並宣稱發明人是「DABUS」。DABUS並非人類,而是一種類神經網路與學習演算法的人工智慧,由Stephen Thaler教授發明並取得專利。專利申請人先於2019年7月24日將自己定義為DABUS的雇主並遞出首次專利申請,再於2019年8月2日改以權利繼受人名義申請(Successor in Title)。專利申請人強調系爭申請是由DABUS發明,且DABUS在人類判定前,即自我判定其想法具新穎性(identified the novelty of its own idea before a natural person did)。專利申請人認為該機器應可以被視為發明人,而機器的所有人則是該機器創造出的智慧財產權之所有人─這樣的主張是符合專利系統的主旨,給予人們揭露資訊、商業化和進行發明的動機。申請人進一步強調:承認機器為發明人可以促進人類發明人的人格權和認證機器的創作。

  在經過2019年11月25日的聽證程序(Oral Proceedings)後,歐洲專利局決定依《歐洲專利公約》(European Patent Convention)Article 81, Rule 19 (1)駁回申請。歐洲專利局強調,發明人必須是自然人(Natural Persons)是國際間的標準,且許多法院曾經對此做過相應的判決。再者,專利申請必須強制指定發明人,因為發明人需要承擔許多法律責任與義務,諸如取得專利權後衍生的法律權利。最後,雖然Article 81, Rule 19 (1)規定發明人應該要附上姓名與地址,但單純幫一個機器取名字,並不會使之符合《歐洲專利公約》的發明人要件。歐洲專利局強調,從立法理由即可知道,《歐洲專利公約》的權利主體僅限自然人和法人(Legal Persons)、專利申請的發明人僅限自然人。歐洲專利局表示,目前AI系統或者機器不具有權利,因為他們沒有如同自然人或法人一樣的人格(Legal Personality)。自然人因為生命而擁有人格,而法人的法人格來自於法律擬制(Legal Fiction)。這些法律擬制的人格來自於立法者的授權或者眾多司法判決的演進,而AI發明者是不具有此般的法律擬制人格。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐洲專利局拒絕以AI為發明人的專利申請, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8456&no=55&tp=5 (最後瀏覽日:2026/05/03)
引註此篇文章
你可能還會想看
瑞士聯邦委員會發布報告推進以數位自決權創建可信賴資料空間

  瑞士聯邦委員會於2022年3月30日,發布了一份關於推進可信的「資料空間」(Data Spaces)與「數位自決權」(Digital Self-Determination)報告。此份報告旨在強調資料是數位時代下創造價值的基礎,為了更好地運用資料的潛在價值,呼籲各界採用新的資料使用概念,加強資料所有者(Data Owner)或資料控管者(Data Controller)對於資料的控制,以「數位自決權」為核心,透過科學技術與法律制度,進一步為實踐「資料共享」(Data Sharing)提供一個安全、便捷、自主、開放、公平而值得信賴的「資料空間」。   值得注意的是,透過該報告,聯邦委員會指示聯邦外交部(FDFA)與聯邦環境、運輸、能源和通訊部(DETEC)實施多項措施,以期能在2023年6月份之前,制定一部由所有利害關係人參與的可信賴資料空間操作之自願行為準則。   此外,該報告列舉出當下對於充分發揮資料潛力所存在的障礙,包括: 資料愈趨集中於大企業手中,且多基於自身目的而使用。 私人和公共服務的提供者在資料的使用上存在多種障礙,例如:資源不足、缺乏專業知識以及擔心競爭劣勢。 社會對於資料的使用態度轉趨保守,無論是擔心資料被濫用而侵犯隱私,或是缺乏資料共享的動機。   該報告更進一步指出資料流通的跨國性,因而有必要創建值得信賴且國際兼容的資料空間,為此亦須建立可信賴資料空間的國際準則,以在國際間形成法律確定性。   觀諸我國個人資料保護法第1條便明確指出,本法制定的目的不僅是為了保護個人資料以及相應之人格權與隱私權,而是更進一步欲透過個人資料管理制度的建構與落實,健全社會及商業互信,以期達成資料的合理利用、創造價值並促進公共福祉的終極目標。   關於我國的資料共享體制,現階段主要從金融機構間開始萌芽,未來如何以數位自決權為基礎,同時在充分保障資訊安全的前提下,擴及其他產業並接軌國際,有賴更多科技與法制的創造與積累、外國經驗的借鑑以及國際參與,而台灣近日以創始會員身分加入「全球跨境隱私規則論壇」(Global Cross-Border Privacy Rules Forum)即為著例。

日本與歐盟達成GDPR適足性認定之合意,預定於今年秋天完成相關程序

  日本個人情報保護委員會於5月31日與歐盟執行委員會,對於取得之個人資料跨境傳輸相互承認達成實質合意。歐盟今年5月施行之歐盟個人資料保護規則(European Union General Data Protection Regulation,GDPR)對於個人資料之跨境傳輸係採「原則禁止、例外允許」模式,因此只有在符合例外之情形下,個人資料才能進行跨境傳輸,而例外獲得許可的情形包括由企業自主採行符合規範的適當保護措施,或取得個資當事人明確同意等方式。此外,GDPR也規定對第三國或地區個人資料保護水平是否達到GDPR標準,為適足性認定制度,取得此一認定資格者,即可自由與歐盟間進行個人資料跨境傳輸。目前有瑞士等11個國家及地區取得認定,日本則尚未取得。   日本為了減輕企業的負擔,2016年7月個人情報委員會決定處理方針,以取得相互認定承認為目標;於2017年1月歐盟執行委員會政策文書發表,將日本列為適足性認定之優先國家,將持續進行雙方後續對話。自2016年4月自2018年5月為止累計對話協商53次。於2017年5月施行修正之個人資料保護法,新導入域外適用規定,並對於國外執行當局為必要資訊提供為相關規定。依據上述對話意見,今年2月14日審議擬定「個人資料保護法指引-歐盟適足性認定之個人資料傳輸處理編(個人情報の保護に関する法律についてのガイドラインーEU域内から十分性認定により移転を受けた個人データの取扱い編)」草案,於今年4月25日至5月25日完成草案預告及意見徵集程序,預定於今年7月上旬訂定發布。其後,將於今年秋天完成歐盟與日本間相互指定與認定程序。亦即,個人情報保護委員會基於個人資料保護法第24條規定,指定歐洲經濟區(EEA)為與日本有同等水準之個人資料保護制度之外國,而歐盟執行委員會依據GDPR第45條規定,認定日本為具備適足保護水準。相互認定後,日本與歐盟間得相互為個人資料傳輸,如有相互協力必要性發生時,個人情報保護委員會及歐洲執行委員會應相互協議以為解決。

菲律賓基因改造茄子被迫停止田間試驗

  菲律賓為亞洲國家間第一個將基因改造作物(基改玉米)商業化並用於食品和動物飼料者,而另一項正等待商品化的基改作物,基因改造茄子,原預計於今(2011)年底完成7項試驗並於明年達成商品化的目標,卻因未符合地方政府法規所要求的公眾諮詢程序而被迫暫時中斷其中2項實驗。   2010年12月,菲律賓Davo市市長因申請本案田間試驗之UP Mindano公司未遵守應於市政府內張貼公開資訊之法定義務,以違反基因改造作物環境釋放之法規為由,向該公司發出禁止令並銷毀植株,其田間試驗因此延誤了6個月以上。無獨有偶的,作為菲律賓基改作物主管機關的植物產業局,也以同樣的理由中止另一項在Visayes國立大學所進行的基因改造作物田間試驗。   Davo市農業辦公室Leonardo Avila III主任表示,就該公司就試驗田所設立的藩籬實際狀況來看,雙方對於嚴格密閉的田間試驗(strictly confined field trial)有理解上的落差。面對UP Mindano公司於期間未盡公開資訊義務以進行充份溝通的指控,該公司負責田間試驗的科學家Rasco表示,所有爭議皆已透過直接或間接的方式於報紙和公開論壇中予以釐清。甚至嘗試著透過說明會教育大眾關於基因改造茄子的風險和優點,更強調茄子沒有異花授粉植物所會造成的基因汙染問題。   從法規面觀察,此一事件所透露的問題在於,即便一國中央法規允許基因改造作物之環境釋出,地方政府亦有可能藉由地方法規來落實其限制或阻擋基因改造作物之政策或目的,因而中央和地方間之政策歧異也將會成為GMO推展時必須面對的法制議題。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

TOP