日本文化廳發布《人工智慧著作權檢核清單和指引》

日本文化廳發布《人工智慧著作權檢核清單和指引》

資訊工業策進會科技法律研究所
2024年08月21日

日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]

壹、事件摘要

日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。

第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。

貳、重點說明

日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下:

一、不符合「非享受目的」的非法AI訓練

日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]

二、不能「不當損害著作權人利益」

從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]

三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7]

權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。

四、開發與提供者也可能是侵權責任主體[8]

該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]

參、事件評析

人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。

各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。

而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

[1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。

[2] 詳見前註,頁31。

[3] 詳見前註,頁7。

[4] 詳見前註,頁8。

[5] 詳見前註,頁9。

[6] 詳見前註,頁9。

[7] 詳見前註,頁35。

[8] 詳見前註,頁36。

[9] 詳見前註,頁42。

你可能會想參加
※ 日本文化廳發布《人工智慧著作權檢核清單和指引》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9232&no=55&tp=1 (最後瀏覽日:2026/01/17)
引註此篇文章
你可能還會想看
英國擬設立數位交易所,改革政府購買數位工具之方式

英國創新科技部(Department for Science, Innovation and Technology,下稱創新科技部)2025年6月7日發布消息,英國政府正在建立第一個國家數位交易所(National Digital Exchange, NDX),並預計於2026年試行,數位交易所可協助英國各政府機關可以更快速且容易地購買合適的數位工具,並期望每年節省12億英鎊(約等於新臺幣481億元)的政府支出,並賦予公務員(使用者)可對供應商進行評分。 2025年1月25日英國政府公布「數位政府現狀審查(State of digital government review)」報告,英國政府2023年於數位技術支出超過260億英鎊(約等於新台幣10,435億元),英國有數百萬人民仰賴政府機關、醫院、學校及相關機構所提供的數位服務,另報告中指出英國二級醫療機構及地方議會仍各自辦理雲端服務、網路與設備採購,因此採購時各機關錯失了與供應商議價的能力,此外僅有28%的公部門主管表示,其所在的部門有能力追蹤並確保供應商提供的技術及服務符合其價值。 國家數位交易所係由創新科技部進行審核與管理,需求機關可自國家數位交易所購買所需之數位工具,上架之數位工具除經創新科技部審核外,亦由該部會與供應商進行全國統一的價格協商,採購方可根據其實際需求透過人工智慧與供應商進行配對,藉由國家數位交易所採購數位工具,相較於需求機關自行辦理採購流程花費數月時間,可減少至幾小時,此外國家數位交易所目標於3年內將參與政府採購的中小型企業比例提升至40%。 我國數位發展部及經濟部現行亦有針對軟體、資訊服務及數位新創產品或服務辦理共同供應契約,供全國公務機關參與訂購,除可節省我國政府機關自行辦理採購案所花費時間及人力,透過複數決標的採購方式,單一產品可以有較多的供應商供機關選擇,同時提升供應商的曝光機會,以促進我國資訊產業發展。英國新設立之國家數位交易所後續制度及未來運作方向,值得持續追蹤。

宣傳板畫上商標及「即將開業」 Chanel控訴藝術展侵權

  奢侈品牌Chanel即將在加拿大郊區開設新的據點?在2014.05,一個嶄新的Chanel即將在此營業的招牌顯立在加拿大東丹佛區。   原來,這是一個名為丹佛藝術節(Art of the Danforth)即將於2014.05.11展開,在東丹佛舉辦、超過20個展覽作品的大型免費的公眾藝術活動。藝術節總監Asad Raza表示,這個展品由藝術家Mahmood Popal負責構思,期望能藉此探討「去高檔化」議題,並透過展品「抓住第一間奢侈品店進入尋常百姓家的一刻」。因此,在一塊黑色大型展板上,畫上Chanel的商標和名稱,並寫上「即將開業」字樣。而這樣的表現方式,並未有實際銷售或與Chanel競爭的目的,僅僅是作為一個豎立在地面上的裝置藝術。   對此,Chanel加拿大發言人表示,Chanel即代表了其品牌精神、價值及形象,如果任何人有需要使用,應事先知會Chanel,並獲得Chanel授權同意:「我們希望在使用前應要向我們提出詢問,主要是為了確保這樣的使用方式或內容符合Chanel的品牌價值、形象、及企業願景。此外,Chanel標識之使用有一定的規範,從不會以其他的變動方式去使用Chanel標識,避免發生減損Chanel的品牌形象的情況。舉例來說,我們從來不使用這個標誌的方式與雙“C”以上的香奈兒標誌。如果使用人在用之前,可以事先與我們做溝通,我們也可以進行相關的控制,並使它看起來更真實。」   針對本件的使用,Chanel加拿大發言人事後表示,當確定是公共藝術的使用時,就未採取相關的訴訟措施,但如果未獲授權使用品牌Chanel的商標而有侵權情形時,將會考慮提起訴訟。

美國士兵曼寧因向「維基解密」網站洩漏國家外交及軍事情報而遭起訴22項罪名

  美國的情報分析員一等兵布蘭德利.曼寧(Brandly Manning),被控訴22項包括通敵罪、非法取得並散布外交及軍事機密的文件給「維基揭密」網站等妨害國家安全罪名,現被拘禁在馬里蘭州的米德堡。     曼寧一審由軍事法院審理,但軍事上訴審法院認為管轄權有爭議,為決定是否繼續適用軍事法院的審理程序,今年10月10日舉行預審聽證會,由五人一組的普通法院法官受理。同時,維基解密、憲法人權中心、美聯社等新聞媒體,均要求軍事法庭依憲法第一修正案,提供曼寧案的相關卷宗資料,但政府發言人查得費雪上尉(Captain Chad Fisher)表示,第一憲法修正案沒有絕對的效力,也未賦予法院公開卷宗的義務。若記者和大眾想獲得案件的文件資料,可透過「情報自由法」申請。但依「情報自由法」的申請程序非常冗長,而且美聯社和曼寧的辯護律師大衛.庫姆斯(david Commbs)的申請都已遭拒絕,律師大衛只能在私人網誌上向關心曼寧案的民眾公布案件進度和內情。     憲法人權中心的律師Shayana Kadidal 表示,不公開卷宗資料,就算參與了聽證會也無法理解案件的真實面貌,而無法做出準確的報導。但軍事法院對於憲法人權中心、新聞媒體及公眾要求公開法庭卷宗的訴求依然無動於衷。軍方和憲法人權中心將在之後會提交聲請,解釋為何他們認為軍事上訴審法院有權裁決卷宗是否公開。     曼寧下次庭期是明年2月4日,若通敵罪成立,曼寧將會被判終身監禁。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP