韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險

韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險

資訊工業策進會科技法律研究所
2024年05月15日

創作內容的流通利用是發揮文化經濟力的核心關鍵,但大數據和機器學習技術的快速發展,人工智慧(以下簡稱AI)已成功應用於許多內容生成,大幅推進圖像、影音、文本的識別、處理、分析、甚至生成等創作成本,但從實現生成式AI而建立基礎模型開始,到AI產出物的生成,均存在可能侵權或被侵權的風險。如何衡平考慮著作權人和使用者立場,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統,已成為各國必須思考因應重要課題。

壹、事件摘要

韓國文化體育觀光部的著作權委員會於2024-01-16發布「生成式人工智慧著作權指引(생성형 AI저작권안내서)」[1],這份指引的目的是希望對涉及生成式人工智慧(Generative AI)產出過程中的各方(AI業者、著作權人、AI使用者)提供有關著作權的注意事項。因為韓國文化與著作權主管機關認為,雖然隨著人工智慧技術的迅速發展,在各個領域的應用為經濟和社會利益產生許多助益,但也出現了一個無法預測的環境,影響到著作權產業和創作活動的各個方面;有人將生成式AI用作創作工具,同時也有人擔心生成式AI可能帶來的經濟損失和就業威脅等問題。因此,韓國著作權委員會成立了由學界、法界和技術界專家以及利害關係人組成的「AI-著作權制度改善工作小組」,於2023年2月成立,以審查生成式AI引發的著作權問題並尋找應對方法,並根據該工作小組的討論而編寫提出該指引[2]

貳、重點說明

該指引從實現生成式AI而建立基礎模型開始,到AI產出物的生成,聚焦於可能引發法律爭議的數據學習和AI產出物生成部分,從現行著作權法的角度說明AI業者、著作權人和AI使用者需要了解的內容。同時為幫助理解,亦納入介紹目前提供的生成式AI案例以及相關的國內外立法趨勢。但該指引特別說明其發布並非為提供其國會正在討論的著作權法修訂方向,而是為了在未來通過進一步的討論、研究和意見徵求過程等,制定出合理的解決方案,並透過制定衡平考慮著作權人和使用者立場的著作權法律制度,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統[3]

該指引架構主要分為五大主題[4],同時提供問答集與附錄參考資料。五大主題分別為:

一、生成式AI技術與著作權(생성형 AI 기술과 저작권)[5]:從著作權角度看生成式AI技術,說明生成式AI技術的意義和應用案例。

二、對AI經營者的指導(AI 사업자에 대한 안내사항)[6]:包括生成式AI的學習階段的風險、AI產出物的生成階段的風險、建議採取防範措施以區別AI產出物與人類創作物。例如人工智慧業務經營者在提供相關服務時,確保不會產生與現有作品相同或相似的人工智慧輸出;該指引並建議參酌韓國2023 年 5 月提出的《內容產業振興法》修正提案(法案編號2122180)[7]規定,於人工智慧產出內容中應標示係採用人工智慧技術製作[8]

三、對著作權所有人的指導(저작권자에 대한 안내사항)[9]:在AI學習階段應考慮的事項、防止AI產出物侵犯著作權的建議。該指引特別建議如果著作權人不希望其作品用於人工智慧學習,可以透過適當方式表達反對,以防止作品被用於人工智慧學習;即使著作權人後來得知自己的作品被用於人工智慧學習,亦可適當地採取技術手段來防止,以避免放任使用產生默許的問題。包括使用例如“Glaze”、“Photo Guard”等此類新的防止技術。

四、對AI使用者的指導(AI 이용자에 대한 안내사항)[10]:提醒注意生成式AI使用可能涉及的著作權侵犯情況,並說明在研究、教育、創作等領域的倫理和政策考慮。例如,提醒使用者將現有作品原樣輸入提示視窗或輸入誘導創作相同或相似作品的文字,從而創建與現有作品相同或相似的人工智慧輸出,然後將其發佈到平台上的方法,將存有侵權風險。即使是用人工智慧學習歌手聲音而重新創作或產生現有歌手的歌曲,也會涉及重製或輸入侵權資料的疑慮。同時,對學術研究或投稿,該指引特別建議在論文等中引用生成人工智慧撰寫的文章之前檢查其來源,並標註特定段落是以什麼人工智慧工具與指令所生成。

五、AI產出的著作權登記(AI 산출물과 저작권 등록)[11]:與AI產出物相關的著作權爭議、AI產出物是否可以登記著作權、有關AI產出物著作權登記的國內外案例、登記時應注意的事項等。該指引強調對於不能被視為在任何表達行為中做出人類創造性貢獻的人工智慧輸出,不可能進行著作權註冊。但在人類以創意方式進行修改、增加等“額外附加工作”(추가 작업)的情況下,該額外工作的部分才會被認定為具有著作權屬性,可以進行著作權登記。但是,著作權註冊的效果僅限於附加的部分(추가 작업한 부분)[12]

另該指引在問答集中主要釋疑相關疑義,例如:為什麼AI的學習會涉及著作權問題?如果無法確定AI學習所使用的作品的權利人,AI業者如何獲得合法使用權?個別提示用於製作AI產出物也受著作權保護嗎?AI產出物是否無法受到著作權法保護?等等韓國文化與著作權主管機關認為常見或已出現爭議的案例,並依其現行法令或見解趨勢,提供主管機關的看法或解答。

此外,為協助其讀者更深入了解人工智慧的原理、爭議與國際發展趨勢,該指引並精要的整理出下述主題,包括:使用人工神經網絡進行學習的過程、生成式AI相關訴訟和著作權爭議、國內外AI相關應對情況、國內廣播公司和新聞機構有關AI學習資料取得的政策條款等補充明,做為該手冊的附錄資料。特別是其所整理之政策條款,顯示韓國新聞媒體已著手因應被用於AI訓練、學習與內容產生的風險。

參、事件評析

綜觀韓國文化體育觀光部的著作權委員會發布「生成式人工智慧著作權指引」可以看出,韓國認為生成式人工智慧在文創領域的議題,目前較為迫切需要處理的是創作人的著作權於AI訓練時被侵權,與創作時運用AI的侵害他人權利的風險,以及AI生成內容的識別與可保護範圍的界定,但促進人工智慧技術發展和相關產業發展,均為韓國關切議題;AI在未來如何衡平考慮著作權人和使用者立場尚待研析建立共識並透過國會立法修正著作權法律制度。

因此,該手冊除提供AI的技術背景說明外,並強調該指引並非修法政策的官方說明,同時以如何降低風險與維護權益的角度,提醒生成式人工智慧(Generative AI)產出過程中的AI經營者、著作權人、AI使用者,提供有關著作權的注意事項與例如防制技術運用、標註AI生成等預防措施。同時為再進一步幫助理解,除風險說明外並以問答方式強化重點提示,並舉相關媒體的AI訓練資料提供政策實例供參考,內容本身精要但附錄細節說明詳盡,但對於未必了解著作權法令的文創領域從業人員而言,內容簡明且建議措施直接具體,值得我國主管機關訂定相關指引之參考。

[1] 「生成型人工智慧著作權指引(생성형 AI저작권안내서)」,檔案下載 https://www.copyright.or.kr/information-materials/publication/research-report/view.do?brdctsno=52591# (最後瀏覽日:2024/05/25)。

[2] 詳前註指引之前言,頁6~7。

[3] 同前註。

[4] 其中尚有第六主題說明未來的法令整備規劃,此部分較屬政策措施方向,較非指引重點,故本文此處未予列入說明重點。

[5] 同前註指引,頁7。

[6] 同前註指引,頁15。

[7] 去年5月,國會文化體育觀光委員會委員長李相憲提出了《內容產業振興法》的部分修正案,其中包括對人工智慧製作的內容強制貼上人工智慧標籤。該修正案目前正在國民議會審議中。https://www.4th.kr/news/articleView.html?idxno=2056520,(最後瀏覽日:2024/05/25)。

[8] 同前註1指引,頁21。

[9] 同前註1指引,頁23。

[10] 同前註1指引,頁29。

[11] 同前註1指引,頁39。

[12] 同前註1指引,頁41。

你可能會想參加
※ 韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=9178&no=64&tp=1 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
歐盟營業秘密指令草案因巴拿馬文件揭露事件,受到歐洲議會熱烈討論

  巴拿馬避稅文件被揭露後,引發歐洲議會(European Parliament)重新檢視正待審核的歐盟營業秘密指令草案(the proposed Directive on Trade Secrets Protection),避免企業營業秘密之保護影響揭弊人(whistleblowers)舉發企業弊端之意願。   執委會2013年11月正式提出歐盟營業秘密指令草案,目的為調合歐洲內部市場營業秘密規範,以建立保護創新者的環境,並維持歐洲企業競爭優勢。2015年12月執委會、歐洲議會及理事會(the Council of the European Union)召開三方會議協商,對於歐盟營業秘密指令內容達成共識,準備進入立法表決。   巴拿馬事件發生後,公民團體Corporate Europe Observatory之代表Martin Pigeon認為,歐盟營業秘密指令可能成為企業對付揭弊人的工具,以掩蓋不當或違法行為,而公開弊端資訊的揭弊人可能因洩漏營業秘密而有刑事責任。但主導該指令立法程序之歐洲議會議員Constance Le Grip表示,營業秘密指令會明確地將記者及揭弊人除罪化。   事實上,為了保障公共利益所為之揭露行為,執委會2013年提出的草案已納入揭弊人排除條款。根據草案第4條第2項規定,會員國應確保為了公共利益目的而揭露不當、錯誤或不法活動(revealing a misconduct, wrongdoing or illegal activity),不會觸犯(entitle)營業秘密法之任何罪名。換句話說,即便取得企業機密之方式違法,揭弊人為了公共利益之行為不會違反營業秘密指令。   歐盟營業秘密指令僅建立歐盟保障營業秘密之最低標準,若歐盟營業秘密指令順利通過,仍待會員國依據該指令各自立法,訂立境內營業秘密相關規範,以落實營業秘密之保護。

何謂瑞典「VINNOVA」?VINNOVA的組織地位與功能為何?

  瑞典近年來積極制定科技創新政策,為了提升政策協調度,瑞典於2001年繼續進行組織改造,創立瑞典創新系統署(Swedish Governmental Agency for Innovation Systems, VINNOVA)與瑞典研究委員會(Swedish Research Council),成為創新發展最主要的兩大支柱。   VINNOVA是瑞典推動科研創新重要的一個部署,瑞典政府相當重視此單位,每年投入約20億瑞典克朗的經費於此,且除了在斯德哥爾摩(Stockholm)設有總部外,更在比利時的布魯塞爾(Brussels)及美國矽谷(Silicon Valley)設有辦公室,以掌握世界最新的產業創新動態,其組織單位約有兩百多名員工,負責VINNOVA計畫推動等工作 。由於VINNOVA的特別地位及其執行許多協助瑞典產業創新之計畫。   VINNOVA在科技創新扮演重要的推手,政府也希望藉VINNOVA的成立促進產業社會的發展,尤其重視產業創新領域。為能順利推動科研創新的過程,且加強學術、產業及公共行政單位的研究合作,VINNOVA建立三螺旋(Triple Helix)模式,希望藉由合作而相互學習。

歐洲議會初步通過化妝品新法案,奈米化妝品成為規範之列

  奈米科技在化妝品領域之應用實例日益增多,對於此類產品之管理趨向也成各界關注的重點,可惜國際間遲遲未有突破性進展。   今(2009)年3月24日,歐洲議會初步通過化妝品規則之新法提案(提案編號:COM(2008)0049-c6-0053/2008-2008/0035(COD)),未來若獲正式通過,將可直接適用於歐盟各國。   就實質內容而言,歐盟在該規範中首次納入奈米科技之考量。其所界定之奈米材料為:「一種具有非溶解、抗生物性之材料,係經由人為單一或多次外部切割或內部建構,尺寸範圍在1至100奈米之間」。為確保奈米化妝品之安全性,該規範透過強制通報、安全評估,以及禁止使用有害人體健康之物質等機制進行管理。此外,化妝品倘若含有或使用奈米材料,製造人必須在產品包裝上之內容物清單中加以標明。   歐洲議會是以633位之多數票一讀通過了該法案,不過也有29位投票反對、11位放棄表示意見。 此外,各界對此立法之反應不一,消費者團體認為應儘早實施該法案;歐洲議會綠黨議員則對法案中的奈米材料之定義不予認同。   根據歐盟執委會評估,目前約有5%的化妝品使用奈米材料,主要是市面上銷售之防曬油、口紅以及抗老化乳霜。隨著此項運用趨勢的發展,很多消費者團體抱怨立法過於緩慢而無法趕上市售產品之發展腳步,而本次立法可望為奈米化妝品之管理開展新的契機與方向。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP