為重塑美國先進製造技術領導地位,發展創新研發與就業,美國總統歐巴馬陸續啟動先進製造國家戰略計畫、先進製造夥伴計畫(Advanced Manufacturing Partnership, AMP)與國家製造創新網絡(National Network of Manufacturing Innovation, NNMI)等框架計畫,並於2014年10月由美國總統執行辦公室和科技顧問委員會發布「先進製造夥伴2.0」(Advanced Manufacturing Partnership 2.0, AMP2.0)。
其中新版的先進製造夥伴計畫,除續行原先之計畫目標,例如:對於「研發技術政策形成」、「區域創新機構」與「全國製造創新網絡」等要項外,「先進製造夥伴2.0」框架強調「製造業資源如何有效匯集」,另透過「組織角度設計」、「法制環境建構」與「商業化運用促進」等面向提出具體執行建議。
本文為「經濟部產業技術司科技專案成果」
美國布希政府最近向國會正式提出一個以打擊恐怖主義及大規模毀滅性武器為目的的法案—出口執行法(The Export Enforcement Act of 2007),以期為執法者—美國商務部產業安全局(Bureau of Industry and Security, BIS)提供更有效的工具,防止最具有敏感性的技術或產品落入危險份子手中。 長久以來,美國用以管理敏感性技術與產品的法源是1979年制定的出口管理法(Export Administration Act),該法對軍民兩用的技術與產品,施以出口管制。出口法在2001年失效,同年發生911攻擊事件,因此,布希政府除希望獲得國會重新就出口管理法予以授權外,也希望可以有更強而有力的出口管理權限。不過行政部門迄今未得到國會就出口管理法予以重新授權。 自2001年以來,BIS係依國際緊急情形經濟權力法(International Emergency Economic Powers Act, IEEPA)行使出口管理權限,不過根據IEEPA,美國總統必須每年發布行政令(Executive Order)始能動用出口管理權限,而IEEPA對於違反出口管制規定的處罰也不若出口管理法重,因此,IEEPA除了對執法者造成出口管理的不便的困擾外,寬鬆的處罰也使得美國過去幾年非法技術外移的事件頻傳。 本次布希政府再次提出2007年出口執行法,其內容除了請求國會同意在未來五年再度授權行政部門行使1979年的出口管理法之權限外,其他重要內容尚有:(1)修正1979年的出口管理法之執行與違法規定:除增列構成犯罪之違法出口行為態樣外,並對違法者大幅加重其民刑事處罰。根據修正草案,企業之出口行為若被認定為違法,最高可科處500萬美元或違法出口技術或產品價值之十倍罰金;(2)強化了執法者打擊軍民兩用技術與產品非法出口的職權,明訂商務部特派員擁有海外調查以及秘密調查的權限;(3)對企業所提出之秘密資訊負有保護義務。 整體而言,本法案除了重新授權美國商務部管理軍民兩用技術與產品實施出口管制體系外,同時也代表美國政府於二十一世紀為維護國家安全與處理所面臨之經濟挑戰的長期與根本性改革。目前法案仍須國會討論通過後,始能生效適用。
日本文化廳發布《人工智慧著作權檢核清單和指引》日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。
歐盟執委會就中國大陸法院頻發禁訴令情形,循WTO爭端解決機制向中國大陸提出諮商請求歐盟執委會(European Commission, EC)於2022年2月18日向中國大陸提起諮商請求(request for consultation),此係世界貿易組織(World Trade Organization, WTO)爭端解決機制(Dispute Settlement Mechanism, DSM)之一環,並依照「爭端解決程序與規則瞭解書」(Understanding on Rules and Procedures Governing the Settlement of Disputes, DSU)第4.4條之規定,副知WTO的爭端解決機構(Dispute Settlement Body, DSB)。 EU於此諮商請求中指出,自2020年8月中國大陸最高人民法院就Huawei對 Conversant案此一涉及標準必要專利(Standards-Essential Patents, SEP)之訴訟核發禁訴令(Anti-Suit Injunction, ASI),並裁定違反者將被處以每日100萬人民幣之罰款後,中國大陸各法院即頻以此方式禁止外國專利權人於中國大陸以外之法院提起或續行專利訴訟(例如:Xiaomi對Interdigital案、ZTE對Conversant案、OPPO對Sharp案、Samsung對Ericsson案等)。中國大陸法院此等措施(measures)限制歐盟會員國公司行使專利權,違反「與貿易有關的智慧財產權協定」(The Agreement on Trade-Related Aspects of Intellectual Property Rights, TRIPS);關於此,EU先前已多次與中國大陸政府交涉,例如曾在2021年7月依據TRIPS第63.3條(會員國法律文件透明化要求),發函請求中國大陸公開專利相關判決之進一步資訊,然均未果。故EU此次提出與中國大陸政府諮商之請求。 EU此諮商請求是DSM的第一步;如雙方未能於中國大陸政府收到諮商請求之60日内解決爭端,依照DSU第4.7條,EU得要求DSB組成一專門小組,就此事進行審理,以認定中國大陸多數法院頻發ASI一事是否違反TRIPS第1.1條、第28.1條、第28.2條及第41.1條、第44.1條及第63.1條等。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).