韓國科學及資通訊部(Ministry of Science and ICT, MSIT)於2024年8月26日發布第一次國家戰略技術發展計畫「韓國科學技術主權藍圖」(Blueprint for National S&T Sovereignty)(下稱科技主權藍圖),以促進國家戰略技術(national strategic technology)之發展。
韓國於2022年10月發表〈國家戰略技術培育計畫〉(National Strategic Technology Nurture Plan),選定12個國家戰略技術。本次發布之科技主權藍圖,旨在為國家戰略技術提供中長期之支援政策,主要政策與預期效果如下:
1. 支持國家戰略技術商業化:MSIT將在5年內投資30兆韓元(約7200億台幣)於國家戰略技術之研發,並推出「顛覆性差距特殊上市程序」(super-gap special listing procedure),為具顛覆性之新技術提供融資、租稅優惠等支援,加速其商業化。
2. 增強韌性:韓國將加強與戰略夥伴之合作,觀察國際趨勢,定期更新國家戰略技術清單,以利其對國家戰略技術保持良好的應變能力。另一方面,韓國希望保持半導體記憶體(semiconductor memory)、蓄電池與顯示器技術之領先,並積極發展人工智慧半導體、尖端生物技術與量子技術等三大顛覆性領域,以期在國際上建立韓國主導之戰略技術標準化體系。
3. 建立任務導向的研發體系:MSIT將建立任務和目標績效管理體系,並搭建創新平台,鼓勵戰略技術之研發,目標為創造15家以上的戰略技術獨角獸公司(unicorn start-up),以引領韓國未來戰略技術之發展。
本文為「經濟部產業技術司科技專案成果」
美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)於2022年9月9日公布2022年最新版本之當代車輛網路安全最佳實踐(Cybersecurity Best Practices for the Safety of Modern Vehicles),強化政府對先進聯網車輛網路安全之把關。 文件將網路安全實踐項目區分為「一般網路安全最佳實踐」及「車輛技術網路安全最佳實踐」兩塊,前者主要為公司整體組織網路安全文化與監管機制之建立;後者則偏重於技術性的建議內涵。 「一般網路安全最佳實踐」共有45項要點,核心概念為:公司應訂定明確的網路安全評估程序,由領導階層負責相關監督責任,定期執行網路安全之風險評估及第三方公正稽核,並對其所發現之風險弱點採取保護措施並持續監控,同時應妥善保存所有網路安全相關之紀錄文件,並鼓勵與車輛同業聯盟彼此分享學習經驗。對於組織成員應適當提供網路安全教育訓練。於產品設計時,應將產品使用者、售後服務維修商,以及可能的外接式電子設備所帶來之風險一併納入安全設計考量。 「車輛技術網路安全最佳實踐」共有25項,核心理念為:對於產品開發人員,應建立存取權限管理,避免有心人士濫用權限。產品所使用的加密技術應隨時更新,若車輛具備診斷功能,應慎防遭到不當利用,且應防止車輛所搭載之感測器遭到惡意干擾或改動,感測器所收集到之資料則應能免於網路攻擊或竊取。應特別注意無線網路設備、空中軟體更新(Over-the-air, OTA)以及公司作業軟體所產生之風險漏洞。 本文件屬於自願性質,無法律強制力。但NHTSA期望在現有的車輛產業網路安全標準上,例如國際標準組織與國際汽車工程師協會(International Standards Organization, ISO/SAE International, SAE)先前所訂定的車輛網路安全標準ISO/SAE 21434的基礎前提下,進一步提出政府對車輛網路安全要求的努力。
美國白宮頒布有關於太空系統的網路安全原則《太空政策第5號指令》由於美國近年來透過太空系統進行通訊、定位導航、太空探索及國防等多方面應用,為避免太空系統受到網路威脅,白宮於2020年9月4日發布《太空政策第5號指令》(Space Policy Directive-5,SPD-5),該指令主要關注太空系統的網路安全,將現有地面使用的網路安全政策應用在太空系統中,旨在提高美國太空設施網路安全。 SPD-5指令建立以下五項太空網路安全原則,作為指導政府及民間單位提高太空系統網路安全的方法: 一、太空系統及相關軟硬體設施,應使用以風險等級為基礎的方式,進行開發運作並建構其網路安全系統。 二、太空系統營運商應制定太空系統網路安全計畫(應包含防止未經授權的存取行為、防止通訊干擾、確保地面接收系統免受網路威脅、供應鏈的風險管理等功能),以確保能掌握對太空系統的控制權。 三、監管機構應訂定規則或監管指南來實施SPD-5指令的原則。 四、太空系統的營運商及其合作對象應共同推動SPD-5指令,並盡力減少網路威脅的發生。 五、太空系統營運商在執行太空系統網路安全的保護措施時,應管理其風險承擔能力。 儘管SPD-5指令並未指示特定機構執行上開原則,但已有美國聯邦通信委員會將SPD-5之網路安全原則納入其法規中,未來SPD-5指令將有可能作為美國太空網路安全措施及法規訂定的基礎。
生物倫理vs.生物科技 孰重孰輕?去(2005)年11月,全球幹細胞研究先驅-韓國首爾大學黃禹錫教授承認其研究有國際醫學倫理瑕疵,而引發軒然大波。主要爭議原因是其研究所使用之卵子,部分來自於其領導研究團隊的女性研究員,以及部分支付報酬給捐卵者。韓國「生物倫理及安全法」於2005年1月開始施行,立法目的強調生命科學及生物科技之發展應具有安全性並符合生物倫理原則,該法更明文規定:受試者需被充分告知資訊,亦有權同意是否參與研究以及不得買賣精子卵子等。因此,黃禹錫教授研究團隊的女性研究員雖是自願提供卵子,但在面對研究同儕壓力時,該名研究員是否真正”完全自願同意”地捐卵,此點頗受爭議。 隨著複製研究技術的與日俱進,生物倫理(Bioethics)相關議題已無國界之分,為此,聯合國科教文組織(UNESCO)於去(2005)年11月底之會員國大會,通過「世界生物倫理及人權宣言」(The Universal Declaration on Bioethics and Human Rights),建立起國際共通的生物倫理標準,希望能給各國在制定生物倫理相關法制政策有所依據,並作為相關研究行為之指導原則。 隨著韓國黃禹錫教授之幹細胞研究醜聞頻傳,國內生醫研究活動更應引為警惕,由於我國目前欠缺法律層次之研究倫理規範,前述UNESCO新近通過之「世界生物倫理及人權宣言」,在我國欠缺相關法律之現況下,更值得研究人員參考。
韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險韓國以「生成式人工智慧著作權指引」提醒著作權侵權風險 資訊工業策進會科技法律研究所 2024年05月15日 創作內容的流通利用是發揮文化經濟力的核心關鍵,但大數據和機器學習技術的快速發展,人工智慧(以下簡稱AI)已成功應用於許多內容生成,大幅推進圖像、影音、文本的識別、處理、分析、甚至生成等創作成本,但從實現生成式AI而建立基礎模型開始,到AI產出物的生成,均存在可能侵權或被侵權的風險。如何衡平考慮著作權人和使用者立場,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統,已成為各國必須思考因應重要課題。 壹、事件摘要 韓國文化體育觀光部的著作權委員會於2024-01-16發布「生成式人工智慧著作權指引(생성형 AI저작권안내서)」[1],這份指引的目的是希望對涉及生成式人工智慧(Generative AI)產出過程中的各方(AI業者、著作權人、AI使用者)提供有關著作權的注意事項。因為韓國文化與著作權主管機關認為,雖然隨著人工智慧技術的迅速發展,在各個領域的應用為經濟和社會利益產生許多助益,但也出現了一個無法預測的環境,影響到著作權產業和創作活動的各個方面;有人將生成式AI用作創作工具,同時也有人擔心生成式AI可能帶來的經濟損失和就業威脅等問題。因此,韓國著作權委員會成立了由學界、法界和技術界專家以及利害關係人組成的「AI-著作權制度改善工作小組」,於2023年2月成立,以審查生成式AI引發的著作權問題並尋找應對方法,並根據該工作小組的討論而編寫提出該指引[2]。 貳、重點說明 該指引從實現生成式AI而建立基礎模型開始,到AI產出物的生成,聚焦於可能引發法律爭議的數據學習和AI產出物生成部分,從現行著作權法的角度說明AI業者、著作權人和AI使用者需要了解的內容。同時為幫助理解,亦納入介紹目前提供的生成式AI案例以及相關的國內外立法趨勢。但該指引特別說明其發布並非為提供其國會正在討論的著作權法修訂方向,而是為了在未來通過進一步的討論、研究和意見徵求過程等,制定出合理的解決方案,並透過制定衡平考慮著作權人和使用者立場的著作權法律制度,促進人工智慧技術發展和相關產業發展,同時努力營造尊重人類創作活動的著作權生態系統[3]。 該指引架構主要分為五大主題[4],同時提供問答集與附錄參考資料。五大主題分別為: 一、生成式AI技術與著作權(생성형 AI 기술과 저작권)[5]:從著作權角度看生成式AI技術,說明生成式AI技術的意義和應用案例。 二、對AI經營者的指導(AI 사업자에 대한 안내사항)[6]:包括生成式AI的學習階段的風險、AI產出物的生成階段的風險、建議採取防範措施以區別AI產出物與人類創作物。例如人工智慧業務經營者在提供相關服務時,確保不會產生與現有作品相同或相似的人工智慧輸出;該指引並建議參酌韓國2023 年 5 月提出的《內容產業振興法》修正提案(法案編號2122180)[7]規定,於人工智慧產出內容中應標示係採用人工智慧技術製作[8]。 三、對著作權所有人的指導(저작권자에 대한 안내사항)[9]:在AI學習階段應考慮的事項、防止AI產出物侵犯著作權的建議。該指引特別建議如果著作權人不希望其作品用於人工智慧學習,可以透過適當方式表達反對,以防止作品被用於人工智慧學習;即使著作權人後來得知自己的作品被用於人工智慧學習,亦可適當地採取技術手段來防止,以避免放任使用產生默許的問題。包括使用例如“Glaze”、“Photo Guard”等此類新的防止技術。 四、對AI使用者的指導(AI 이용자에 대한 안내사항)[10]:提醒注意生成式AI使用可能涉及的著作權侵犯情況,並說明在研究、教育、創作等領域的倫理和政策考慮。例如,提醒使用者將現有作品原樣輸入提示視窗或輸入誘導創作相同或相似作品的文字,從而創建與現有作品相同或相似的人工智慧輸出,然後將其發佈到平台上的方法,將存有侵權風險。即使是用人工智慧學習歌手聲音而重新創作或產生現有歌手的歌曲,也會涉及重製或輸入侵權資料的疑慮。同時,對學術研究或投稿,該指引特別建議在論文等中引用生成人工智慧撰寫的文章之前檢查其來源,並標註特定段落是以什麼人工智慧工具與指令所生成。 五、AI產出的著作權登記(AI 산출물과 저작권 등록)[11]:與AI產出物相關的著作權爭議、AI產出物是否可以登記著作權、有關AI產出物著作權登記的國內外案例、登記時應注意的事項等。該指引強調對於不能被視為在任何表達行為中做出人類創造性貢獻的人工智慧輸出,不可能進行著作權註冊。但在人類以創意方式進行修改、增加等“額外附加工作”(추가 작업)的情況下,該額外工作的部分才會被認定為具有著作權屬性,可以進行著作權登記。但是,著作權註冊的效果僅限於附加的部分(추가 작업한 부분)[12]。 另該指引在問答集中主要釋疑相關疑義,例如:為什麼AI的學習會涉及著作權問題?如果無法確定AI學習所使用的作品的權利人,AI業者如何獲得合法使用權?個別提示用於製作AI產出物也受著作權保護嗎?AI產出物是否無法受到著作權法保護?等等韓國文化與著作權主管機關認為常見或已出現爭議的案例,並依其現行法令或見解趨勢,提供主管機關的看法或解答。 此外,為協助其讀者更深入了解人工智慧的原理、爭議與國際發展趨勢,該指引並精要的整理出下述主題,包括:使用人工神經網絡進行學習的過程、生成式AI相關訴訟和著作權爭議、國內外AI相關應對情況、國內廣播公司和新聞機構有關AI學習資料取得的政策條款等補充明,做為該手冊的附錄資料。特別是其所整理之政策條款,顯示韓國新聞媒體已著手因應被用於AI訓練、學習與內容產生的風險。 參、事件評析 綜觀韓國文化體育觀光部的著作權委員會發布「生成式人工智慧著作權指引」可以看出,韓國認為生成式人工智慧在文創領域的議題,目前較為迫切需要處理的是創作人的著作權於AI訓練時被侵權,與創作時運用AI的侵害他人權利的風險,以及AI生成內容的識別與可保護範圍的界定,但促進人工智慧技術發展和相關產業發展,均為韓國關切議題;AI在未來如何衡平考慮著作權人和使用者立場尚待研析建立共識並透過國會立法修正著作權法律制度。 因此,該手冊除提供AI的技術背景說明外,並強調該指引並非修法政策的官方說明,同時以如何降低風險與維護權益的角度,提醒生成式人工智慧(Generative AI)產出過程中的AI經營者、著作權人、AI使用者,提供有關著作權的注意事項與例如防制技術運用、標註AI生成等預防措施。同時為再進一步幫助理解,除風險說明外並以問答方式強化重點提示,並舉相關媒體的AI訓練資料提供政策實例供參考,內容本身精要但附錄細節說明詳盡,但對於未必了解著作權法令的文創領域從業人員而言,內容簡明且建議措施直接具體,值得我國主管機關訂定相關指引之參考。 [1]「生成型人工智慧著作權指引(생성형 AI저작권안내서)」,檔案下載https://www.copyright.or.kr/information-materials/publication/research-report/view.do?brdctsno=52591#(最後瀏覽日:2024/05/25)。 [2]詳前註指引之前言,頁6~7。 [3]同前註。 [4]其中尚有第六主題說明未來的法令整備規劃,此部分較屬政策措施方向,較非指引重點,故本文此處未予列入說明重點。 [5]同前註指引,頁7。 [6]同前註指引,頁15。 [7]去年5月,國會文化體育觀光委員會委員長李相憲提出了《內容產業振興法》的部分修正案,其中包括對人工智慧製作的內容強制貼上人工智慧標籤。該修正案目前正在國民議會審議中。https://www.4th.kr/news/articleView.html?idxno=2056520,(最後瀏覽日:2024/05/25)。 [8]同前註1指引,頁21。 [9]同前註1指引,頁23。 [10] 同前註1指引,頁29。 [11]同前註1指引,頁39。 [12]同前註1指引,頁41。