AI 創作是否能獲得著作權?——Thaler 訴美國著作權局案解析 資訊工業策進會科技法律研究所 2025年04月16日 美國哥倫比亞特區聯邦上訴法院於2025年3月18日裁定Stephen Thaler博士與美國著作權局的上訴案,認為AI繪圖作品無法受著作權保護,因為AI並非自然人,無法成為作品作者或進行「職務上創作」。此判決再次確認了美國對AI創作無著作權保護的立場。[1] 壹、事件摘要 此案起源於2019年,Thaler博士為AI繪圖作品「A Recent Entrance to Paradise」向著作權局申請著作權登記,但因AI非自然人創作者,著作權局於2022年駁回申請。[2]Thaler博士認為,這違反憲法對創作的保護,並主張其研發之AI系統「Creativity Machine」為作者,而其本人則透過AI的「職務上創作」享有著作權。Thaler博士不服2023年聯邦地方法院判決而提起上訴。[3] 貳、重點說明 從美國哥倫比亞特區聯邦上訴法院之判決觀之,本案爭點在於: 一、AI是否符合著作權法「作者」之定義:即AI生成作品是否滿足「原創性」與「獨立創作」標準;美國著作權法是否允許非人類創作者擁有著作權? 二、AI作品歸屬問題:Thaler博士主張AI創作之著作權應歸屬於開發者,或透過「職務上創作」使其本人取得著作權。然自然人與AI間關係;是否適用於人類創作者與雇主間法律關係;AI是否能被視為僱員? 上訴法院認同著作權局於2023年3月16日發佈之《AI生成作品著作權登記指引》,該指引強調著作權目前僅保護自然人創作。AI獨立創作或主導作品表達情況無法獲得著作權保護,即使使用者透過指令或調整輸出,亦無法改變此原則。經審查,法院認為因著作權法規定涉及生命週期、由自然人將作品視為遺產繼承,與創作意圖等概念,顯示立法者設定作者應為自然人。本案係爭作品仍由AI獨立創作,Thaler博士僅在初始階段下達指令,故不符「原創性門檻」(Threshold of Originality)之標準。[4] 職務上創作方面,該適用於人類創作者與雇主之間的法律關係,而AI並非法律上自然人,故無法簽署雇傭合約成為員工。[5]綜上,Thaler博士無法透過以上方式取得作品著作權。法院支持著作權局之裁定與意見,認為無需討論至憲法層面問題,僅就目前著作權法是否涵蓋AI自主創作作品及足夠。 參、事件評析 我國智財局已於2023年6月16日發布函釋[6],說明生成式AI模型生成內容是否為獨立之著作而受著作權法保護,視有無「人類精神創作」決定,目前與美國立場相似。美國聯邦上訴法院此次判決,確認AI無法成為著作權的作者,著作權保護僅限於人類創作者。雖然此判決不影響人類使用AI創作,但未來若要改變本案不保護AI自主生成的純機器作品的立場,或許不會從著作權法著手,而是透過立法方式創設新的法律權利來應對。美國國會與著作權局仍在持續研究AI相關法律,如2024年4月美國眾議院司法委員會舉行聽證會[7],討論AI輔助創作與發明的智慧財產權問題,會上專家認為現行法律已涵蓋大部分AI相關議題,新增著作權法規可能增加複雜性並抑制創新。資策會科法所目前持續協助國科會、國發會、文化部等政府部會,觀測研析AI著作權國際法制發展,後續將針對AI在文化藝術運用的著作權等風險與因應提供創作人指引,並因應行政院發展我國主權AI的政策,研提資料取得困境的法制面解決建議。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Thaler v. Perlmutter, 23-5233, (D.C. Cir. 2025), https://law.justia.com/cases/federal/appellate-courts/cadc/23-5233/23-5233-2025-03-18.html (last visited Mar. 26, 2025) [2]Re: Second Request for Reconsideration for Refusal to Register A Recent Entrance to Paradise (Correspondence ID 1-3ZPC6C3; SR # 1-7100387071), U.S. Copyright Office Review Board,https://www.copyright.gov/rulings-filings/review-board/docs/a-recent-entrance-to-paradise.pdf(last visited Mar. 26, 2025) [3]US appeals court rejects copyrights for AI-generated art lacking 'human' creator, https://www.reuters.com/world/us/us-appeals-court-rejects-copyrights-ai-generated-art-lacking-human-creator-2025-03-18/?utm_source=chatgpt.com(last visited Mar. 26, 2025) [4]Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence, 88 Fed. Reg. 16,190, 16,192 (March 16, 2023), https://www.skadden.com/-/media/files/publications/2023/03/copyright-office-issues-guidance-on-ai-generated-works/formalguidance.pdf (last visited Mar. 26, 2025) [5]許慈真,美國聯邦地方法院判決Thaler v. Perlmutter : AI生成作品不受著作權保護,2023年9月20日,北美智權報,https://naipnews.naipo.com/9074 (最後點閱時間 : 2025年3月26日)。 [6]智財局函釋(2023年6月16日經授智字第11252800520號函),https://topic.tipo.gov.tw/copyright-tw/cp-407-855070-f1950-301.html (最後點閱時間 : 2025年3月26日)。 [7]HEARING BRIEF: Judiciary Subcommittee Hearing on Artificial Intelligence and Intellectual Property – IP Protection for AI-Assisted Inventions and Creative Works, April 10th, 2024, https://infojustice.org/archives/45692?utm_source=chatgpt.com (last visited Mar. 26, 2025)
英國因劍橋分析個資外洩事件開罰臉書英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。 自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。 根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。 由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。
韓國發布人工智慧基本法韓國政府為支持人工智慧發展與建立人工智慧信任基礎,提升國家競爭力,韓國科學技術情報通訊部(과학기술정보통신부)於2025年1月21日公布《人工智慧發展與建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안,下稱AI基本法),將於2026年1月22日起生效。韓國《AI基本法》為繼歐盟《人工智慧法》(EU Artificial Intelligence Act)之後第二部關注人工智慧的國家級立法,並針對高影響人工智慧(고영향 인공지능)及生成式人工智慧進行規範,促進創新及降低人工智慧風險,將搭配進一步的立法與政策以支持人工智慧產業。 《AI基本法》有以下三個政策方向: 1. 人工智慧基本計畫:由科學技術情報通訊部制定並每三年檢討「人工智慧基本計畫」,經「國家人工智慧委員會」審議後實施,決定產業發展政策、培育人才、健全社會制度等事項。本法並設置人工智慧政策中心及人工智慧安全研究所,提供科學技術情報通訊部所需的研究與分析。 2. 扶持產業發展:以扶持中小企業及新創企業為發展方向,促進產業標準化的基本政策,爭取國際合作及海外發展。 3. 人工智慧倫理與安全性:政府公布人工智慧倫理原則,由相關機構及業者自主成立人工智慧倫理委員會,在政府發布的指引下建立貼近實務面的倫理指引。本法明確要求人工智慧產業必須負擔透明性及安全性義務,政府也推動認驗證制度,以確保人工智慧的可靠性。 韓國《AI基本法》將人工智慧發展方向及社會政策結合,明確要求政府制定人工智慧發展計畫並定期檢討,施行具體措施與設置必要組織,確立政府在人工智慧領域的角色,然產業界對於政府監管力度之意見有所分歧,為《AI基本法》後續相關政策及指引推動種下不確定性,值得持續追蹤相關動態作為我國人工智慧發展策略之參考。
2022年日本公布平台資料處理規則實務指引1.0版日本數位廳(デジタル庁)與內閣府智慧財產戰略推進事務局(内閣府知的財産戦略推進事務局)於2022年3月4日公布「平台資料處理規則實務指引1.0版」(プラットフォームにおけるデータ取扱いルールの実装ガイダンス ver1.0,簡稱本指引)。建構整合資料提供服務的平台,將可活用各種資料,並創造新價值(如提供個人化的進階服務、分析衡量政策效果等),為使平台充分發揮功能,本指引提出平台實施資料處理規則的六大步驟: 識別資料應用價值創造流程與確認平台角色:掌握從產生資料,到分析資料創造使用價值,再進一步提供解決方案的資料應用價值創造流程,以確認平台在此流程中扮演的角色。 識別風險:掌握利害關係人(如資料提供者與使用者等)顧慮的風險(如資料未妥適處理、遭到目的外使用等疑慮)。 決定風險應對方針:針對掌握的風險,決定規避、降低、轉嫁與包容等應對方針。 設定平台資料處理政策與對利害關係人說明之責任(アカウンタビリティ):考量資料處理政策定位,擬定內容,並向利害關係人進行說明。 設計平台使用條款:依據「PDCA循環」重複執行規則設計、運作與評估,設計平台使用條款。 持續進行環境分析與更新規則:持續分析內部與外部因素可能面臨的新風險,並更新平台資料處理規則。