日本文化廳發布《人工智慧著作權檢核清單和指引》

日本文化廳發布《人工智慧著作權檢核清單和指引》

資訊工業策進會科技法律研究所
2024年08月21日

日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]

壹、事件摘要

日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。

第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。

貳、重點說明

日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下:

一、不符合「非享受目的」的非法AI訓練

日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]

二、不能「不當損害著作權人利益」

從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]

三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7]

權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。

四、開發與提供者也可能是侵權責任主體[8]

該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]

參、事件評析

人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。

各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。

而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw

[1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。

[2] 詳見前註,頁31。

[3] 詳見前註,頁7。

[4] 詳見前註,頁8。

[5] 詳見前註,頁9。

[6] 詳見前註,頁9。

[7] 詳見前註,頁35。

[8] 詳見前註,頁36。

[9] 詳見前註,頁42。

你可能會想參加
※ 日本文化廳發布《人工智慧著作權檢核清單和指引》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9232&no=55&tp=1 (最後瀏覽日:2026/01/28)
引註此篇文章
你可能還會想看
歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

英國Ofcom提出「促進智慧聯網之投資與創新」報告並對英國智慧聯網管制應補強之方向提出建議

  英國電信主管機關Ofcom於2015年1月提出「促進智慧聯網之投資與創新」報告(Promoting investment and innovation in the Internet of Things),對英國智慧聯網(Internet of things, IOT)之管制發表意見。Ofcom認為就英國發展智慧聯網之現況而言,在商業上確實已經進行智慧聯網發展並投資之,然,並未對複雜的發展做好準備;Ofcom亦承認英國在基礎設施和政府管制架構上,尚未具備適當的發展。於此報告中,Ofcom提出四方向的建議,分別為資料隱私與消費者認識、網路安全與防護、智慧聯網可用之頻譜和電話號碼與網址管理等四項。   首先在資料隱私與消費者認識部分,Ofcom認為以現有管制保護智慧聯網下之隱私的效果有限,因此建議英國「資訊專員辦公室」(Information Commissioner's Office , ICO)需要發展未來隱私保護議題之解決方法,並且與政府及其他管制機關就資料隱私之法制議題共同進行,包括將現有之資料保護管制之範圍進行評估,考量是否需涵蓋到所有智慧聯網設施,和訂定智慧聯網資料共享之原則。   第二,在網路安全與防護管理上,Ofcom指出英國2003年通訊法(Communication Act 2003)已就服務提供者所提供之公眾可使用的網路與服務,課與特定安全與防護責任;例如網路與服務提供者必須採取適當的手段管理安全風險,尤其需將對終端使用者之影響降至最低、網路提供者必須採取所有適當的程序,盡可能的保護網路安全。然,Ofcom認為智慧聯網並未直接規定於現有的管制中,例如智慧電網設施之高度安全與防護範圍應涵括私人網路;故,應評估必須規定於法律中的智慧聯網網路與服務種類,以達完善防護。   再者,關於智慧聯網可用之頻譜議題,著重於用於智慧聯網之技術須改進。目前使用之頻譜在2.4和5GHz(此頻譜亦用於Wi-Fi服務);而未來的設施也可能使用到1GHz以下的頻譜,同時Ofcom也說明其將來僅會監視頻譜的利用,而不會開放新的可用頻譜。   最後,在電話號碼與網址管理方面,就智慧聯網設施之網際網路協定,未來可能會從IPv4發展成為IPv6也是相當重要的。Ofcom認為未來智慧聯網可能會發展成一個「相當大數量且顯著的設施」,故採用IPv6將顯得更為重要;然,就目前而言,英國採用IPv6之情況系落後於其他國家的。   Ofcom現正致力於發展新的頻譜管制、數據隱私、網路安全與網址等管制,殊值得繼續觀察以俾利我國智慧聯網管制與發展。

首件由好萊塢電影公司共同對網路空間(cyberlocker)業者提起著作權侵害之訴

  迪士尼、20世紀福克斯、環球影城、哥倫比亞和華納兄弟於2011年2月向美國佛羅里達州南部法院起訴,控告Hotfile網站非法、大規模侵害其享有的著作權。美國電影協會(the Motion Picture Association of America, MPAA)於新聞稿中聲明,Hotfile以數位方式大規模的侵害他人著作權,而其經營人亦未馬上有效處理該侵權爭議。   Hotfile係近二年來提供電腦檔案寄存最熱門的網路空間(cyberlocker)服務業者之一,主要的業務在提供民眾一藏塞夾(stash box)儲存其私人影片。網路空間(cyberlocker)服務業者擁有龐大的儲存設備,並提供有限上傳檔案空間、檔案寄存時間及下載速度之免費服務,為雲端服務之一種形式,其主要收入是廣告或用戶付費,以維持營運。跟BitTorrent不同的是,cyberlocker無需下載任何軟體即可資訊共享,用戶只要上cyberlocker網站即可直接觀賞影片或電視節目。   MPAA在聲明中表示,Hotfile以支付費用之獎勵方式,鼓勵其會員上傳並散布受著作權保護之最熱門的電影或電視節目到Hotfile網站,任何人均可透過網路連結,到Hotfile網站下載受著作權保護之電影或電視節目。Hotfile並向下載該電影或電視節目之會員收取費用,卻未向所上述電影公司支付任何費用。原告(電影公司)因此對被告Hotfile訴請損害賠償及禁制令。   Hotfile提供上傳空間的網站用戶和流量近幾個月迅速增加,但該網站是否會因為原告(電影公司)向法院訴請損賠及禁制令,而支付巨額賠款或停止網路服務,則需視該案訴訟之發展情況。

為加強兒少網路安全,英國通訊管理局發布「兒少風險評估指導原則」以及「兒少保護行為準則」

為加強兒少網路安全,英國通訊局(Office of Communication)於2025年4月24日發布「兒少風險評估指導原則」(Children's Risk Assessment Guidance)以及「兒少保護行為準則」(Protection of Children Codes of Practice),以供受規範之網路服務提供者遵循。 「兒少風險評估指導原則」要求所有受《網路安全法》(Online Safety Act 2023)規範的「使用者對使用者服務」(user-to-user service)和「搜尋服務」(search service)的服務提供者,在完成兒少存取評估(children’s access assessments)確認服務有可能被兒少存取後,必須在三個月內即2025年7月24日前,完成兒少風險評估(children’s risk assessments)。 至於「兒少保護行為準則」一經國會審議通過,則自2025年7月25日起生效,服務提供者必須採取「兒少保護行為準則」規定的安全措施(safety measures),或實施其他有效手段,以減少上開風險發生的可能性。 「兒少保護行為準則」列出的安全措施包括: 一、更安全的資訊發送: 有運作推薦系統(recommender system)且存在中度或高度有害內容風險的服務提供者,應調整其演算法,確保不向兒少推播有害內容。 二、有效的年齡驗證: 風險最高的服務提供者必須使用高度有效的年齡驗證,以識別使用者是否為兒少。 三、有效的內容審查: 服務提供者應建立內容審查機制,一旦發現有害兒少的內容時,能迅速採取行動。 四、更多的選擇與支援: 服務提供者應賦予兒少更多的控制權,包括允許對內容或貼文表達不喜歡、接受或拒絕群組聊天邀請、封鎖用戶、將用戶設為靜音、以及關閉自己貼文的留言功能等。 五、簡便的舉報與申訴: 服務提供者應提供透明的舉報與申訴管道,且確保提出舉報和申訴的管道和方式對兒少而言相對輕鬆且簡單。 六、強化的治理: 服務提供者應設置負責兒童安全的專責人員,高層團隊並應每年審查兒童風險管理情況。 如服務提供者未能履行上開義務,英國通訊局可處以罰款。必要時,甚至可向法院聲請禁制令封鎖該平台。 處在網路無限擴張的時代,保障兒少網路安全絕對是重要且不容忽視的課題。英國通訊管理局發布的實施作法,非常值得我國觀察學習與參考。

TOP