2019年8月7日,美國總務署(General Services Administration, GSA)、國防部(Department of Defense, DoD)及航空暨太空總署(National Aeronautics and Space Administration, NASA)共同發布一項暫行規定(interim rule),依據2019美國《國防授權法》(National Defense Authorization Act, NDAA)修正美國《聯邦採購規則》(Federal Acquisition Regulation, FAR),以公共及國家安全為由,禁止美國聯邦機構購買或使用包括華為、中興通訊、海康威視、海能達及大華科技等5家中國大陸企業、子公司與關係企業所提供之電信或視頻監控設備及服務。禁令並擴及經美國國防部長與國家情報局局長或聯邦調查局局長協商後,合理認為屬特定國家地區所擁有或控制之實體,或與該國家地區的政府有聯繫者。該暫行規定已於2019年8月13日生效,美國政府有權為不存在安全威脅的承包商提供豁免直至2021年8月13日。並預計在2020年8月,全面禁止美國聯邦機構與使用該中國大陸企業設備與服務之公司簽訂契約。
2019美國《國防授權法》第889(a)(1)(A)條,明文禁止美國聯邦機構採購或使用特定企業所涵蓋之電信設備或服務,並禁止將該類產品作為設備、系統、服務或關鍵技術的實質或必要組成。本次修正美國《聯邦採購規則》,即配合新增第4.21小節「禁止特定電信和視頻監控服務或設備的承包」,並於52.204-25中明訂「禁止簽訂與特定電信和視頻監視服務或設備契約」。故除非有例外或豁免,禁止承包商提供任何涵蓋特定中國大陸企業之電信設備或服務,作為設備、系統、服務或關鍵技術的實質或必要組成部分。承包商及分包商必須在契約履行過程中,報告有無發現任何使用此類設備、系統或服務之情形。
本文為「經濟部產業技術司科技專案成果」
日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。
美國發布《新興科技優先審查架構》 加速政府機構導入AI技術美國聯邦總務署(General Service Administration)於2024年6月27日發布《新興科技優先審查架構》(Emerging Technologies Prioritization Framework),該架構係為回應拜登總統針對AI安全所提出之第14110號行政命令,而在「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下簡稱FedRAMP)底下所設置之措施。 一般而言,雲端服務供應商(cloud service providers)若欲將其產品提供予政府單位使用,需依FedRAMP相關規範等候審查。《新興科技優先審查架構》則例外開放,使提供「新興科技」產品之雲端服務供應商得視情況優先審查。 現階段《新興科技優先審查架構》所定義之「新興科技」係為提供下列四種功能的生成式AI技術: 1.聊天介面(chat interface):提供對話式聊天介面的產品。允許用戶輸入提示詞(prompts),然後利用大型語言模型產出內容。 2.程式碼生成與除錯工具(code generation and debugging tools):軟體開發人員用來協助他們開發和除錯軟體的工具。 3.圖片生成(prompt-based image generators):能根據使用者輸入之文字或圖像而產生新圖像或影像的產品。 4.通用應用程式介面(general purpose API):基於API技術將前述三項功能加以整合的產品。 美國政府為挑選最具影響力的產品,要求雲端服務供應商繳交相關資料以利審查,例如公開的模型卡(model card)。模型卡應詳細說明模型的細節、用途、偏見和風險,以及資料、流程和參數等訓練細節。此外,模型卡應包含評估因素、指標和結果,包括所使用的評估基準。 《新興科技優先審查架構》第一波的申請開放至2024年8月31日,且FedRAMP將於9月30日宣布優先名單。這項措施將使生成式AI技術能夠以更快的速度被導入政府服務之中。
日本內閣閣議決定朝向實現數位社會之重點計畫日本內閣於2021年6月18日閣議決定《朝向實現數位社會之重點計畫》(デジタル社会の実現に向けた重点計画)。本計畫係為使2021年9月數位廳正式設立後,得迅速依《數位社會形成基本法》(デジタル社会形成基本法)第37條第1項制定重點計畫,而將目前施政上須納入考量之項目事先制定為重點計畫。 本計畫重點措施摘要如下: 整備並普及化數位社會所需之共同功能,包含普及My Number Card、推動利用My Number,與Gov-Cloud政府雲端服務平台等。 徹底改善行政服務之使用者體驗與使用者介面,實現以國民為對象之服務。 推動《綜合資料戰略》(包括的データ戦略),促進資料流通與活用。 培養優秀數位人才,並延攬民間人才至行政機關。 為活用新技術進行籌措,並推動制度改革。 確保網路可及性(アクセシビリティ),減少數位落差。 確保網路安全與個人資料保護,防範使用資通訊技術之犯罪行為。 推動普及高度資通訊環境,與高效能運算之研究開發及測試實驗。 定期召開數位社會推動會議幹事會(デジタル社会推進会議幹事会(仮称),此為暫定),檢驗政策實施狀況。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。