新加坡通訊暨資訊部(Ministry of Communications and Information, MCI)於2020年11月2日發布新聞稿表示,新加坡國家議會(Parliament of Singapore)通過個人資料保護法(Personal Data Protection Act, PDPA)修正案。主要由新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)擔任執行與管理機關,而新加坡個人資料保護法僅適用於私人企業、非公務機關。
新加坡通訊暨資訊部特別強調,該個人資料保護法於2013年1月生效,而近年物聯網、人工智慧等新興科技瞬息萬變,隨著資料量急遽增長,企業組織利用個人資料進行創新,成為了社會、經濟和生活的一部分,此次修法意在因應新興科技的進步與新商業模式的發展,使該法可適應、接軌於複雜的數位經濟趨勢,同步維護消費者在數位經濟中的權益,更加符合國際框架,使總部位於新加坡的公司在擴展全球市場時,有助其調整和降低合規成本與風險。主要將加強消費者保護並支持企業業務創新,希望以最大程度提高私部門收益、減少蒐集和利用個人資料的風險,以取得平衡,修訂重點整理如下:
美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用? 資訊工業策進會科技法律研究所 2025年06月04日 美國著作權局於2025年5月發布著作權與AI第三部分報告之預出版本 (Copyright and Artificial Intelligence Part 3: Generative AI Training pre-publication version)[1],該報告重點為生成式AI訓練資料與著作權之關係,彙整各方意見並分析現行法制之挑戰及修改方向,目前發布之版本為預出版本,該報告說明將於近期發布最終確認版,預期其結論與實質內容並不會有修改。 壹、事件摘要 美國著作權局自2023年起即開始對AI所引發之著作權法律及政策問題進行研究,同年8月著作權局發布著作權及AI諮詢通知(Comments on Artificial Intelligence Notice of Inquiry, NOI),徵集各界對AI著作權議題之意見,著作權局亦針對相關議題舉辦多場公聽會及研討會協助意見之蒐集[2]。NOI發布後蒐集到之意見經著作權局整理分析,於2024年7月起發布AI著作權報告,第一部分為數位仿造,第二部分於2025年1月發布為就AI作品之著作可保護性之分析,而同年5月所發布之第三部分則聚焦於生成式AI之訓練。 生成式AI於訓練過程可能大量使用受著作權保護之作品,此份報告針對訓練過程可能涉及之著作權問題進行分析,主要說明AI模型訓練過程中使用受著作權保護作品是否可構成合理使用。 貳、重點說明 一、生成式AI模型訓練及模型權重對重製權之侵害 使用受著作權保護作品進行AI模型訓練涉及著作權中之重製,除非開發者能提出授權或其他合理抗辯如合理使用等,否則可能對一項或多項著作權利構成初步侵權(Prima Facie Infringement)。AI開發者於模型訓練階段會進行多次作品複製,包含下載作品、於儲存媒介間轉換、將作品進行格式化或製作副本等[3],模型訓練過程中暫時複製之作品亦有可能因其存在於時間足夠而構成重製權之侵害[4]。 在特定情形下,模型權重(model weights)[5]之複製亦可能構成重製權之侵害。訓練過程可能使模型權重包含著作權作品,而若第三方複製了包含著作權作品之模型權重,即便其未參與模型之訓練,亦可能構成初步侵權[6]。若模型能在未經外部輸入之情形下產出與訓練範例相似之內容時,表示此範例必以某種形式存在於模型權重中,故此模型權重之複製極有可能侵犯著作重製權[7]。換言之,不僅開發者有可能因模型權重之複製侵害著作權人之權利,部署、使用等第三方若複製模型權重亦有可能構成對重製權之侵害。 著作權局指出,模型權重究竟是否會構成重製權或甚至衍生作品之侵權,須判斷該模型權重是否保留與作品受權利保護部分實質相似之內容,僅有在實質相似之情形下,模型權重之複製才可能構成侵權[8]。 二、合理使用 對著作權作品之合理使用可做為作品重製權的抗辯,著作權局於報告中就不同因素分析AI使用著作權作品進行訓練是否得主張合理使用。AI於訓練過程中會有多次複製行為,惟在判斷AI模型訓練是否為對作品之合理使用,仍須視整體使用情境進行判斷[9]。 (1) 作品轉化性須視模型目的及佈署判斷 報告中分析作品之轉化性(transformativeness)[10],AI訓練使用作品是否具有轉化性並非絕對,而是依據模型最終之功能及佈署有程度上之區別,須依個案判斷。若模型之訓練目的為用於研究或封閉系統,則該模型具高轉化性;若其目的是生成與訓練用作品實質相似之結果時,不具轉化性。多數模型之轉化程度會落在前述兩極端之中間,如模型使用特定類型之作品進行訓練,用以生成使用目的與原作相同之內容時,即便其生成內容未有實質相似,頂多僅為有限度之轉化(modestly transformative)[11]。AI開發商得於其系統設置防護措施,限制模型複製受著作權保護作品之節錄內容,使生成內容之目的與原作品不同,此措施能使模型訓練更具轉化性[12]。 有論者認為,使用受著作權保護作品進行AI模型訓練並非出於表達目的,且近似人類學習,因此實質上應是具有轉化性的,著作權局否定了前述兩種說法。報告中說明,語言模型於訓練時所吸收的內容包含文句、段落及文件之排列選擇,並非單純僅吸收其單字含意,且所生成之模型是被用作創造表達性內容,故不得謂AI模型為非表達性目的[13]。其次,針對人類學習觀點,報告首先闡明,學生基於學習目的亦不得以合理使用為由複製整本著作,因此人類學習並不得直接作為合理使用之抗辯。生成式AI之訓練能迅速分析並生成完美之作品,此非如同人類經學習後會產出具個別人格特質之結果,故著作權局不同意AI模型之訓練為與人類學習相同具有轉化性之論點[14]。 (2) 受著作權保護作品之表達性 AI訓練所使用之受著作權保護作品若具較高創作或表達性,如小說、電影等,其著作權比其他作品如電腦編碼等功能性作品更接近著作權之保護核心。而AI模型訓練來源多元,因此判斷上仍須視個案模型及作品而定。 (3) 使用作品之合理比例 AI模型訓練需大量複製受著作權保護作品,於判斷其複製比例是否合理時,係判斷模型訓練所複製之部分對於受著作權保護作品之數量及重要性使否合理[15]。作品使用之合理性,須考量重要性以及數量,若模型僅使用小部分作品做訓練,但該部分為著作權作品之核心部分,此使用並不一定合理。 在使用完整作品層面,生成式AI較一般搜尋引擎更不具合理性,生成式AI所提供之資訊並非僅限於其訓練資料庫中所複製作品資料。然而,許多生成式AI之訓練方式必須使用完整作品進行訓練,因此,著作權局指出,雖開發者使用完整作品進行訓練與合理使用相悖,但若其訓練具有轉化性目的(transformative purpose),並且有必要透過大量作品之訓練以提升模型效能時,則使用整部作品進行訓練可能被認為合理[16]。換言之,使用完整作品進行訓練合理與否須連同其使用必要性及訓練目的一併考量。 (4) 影響原作品之潛在市場或價值 報告中點出三項生成式AI訓練可能造成的市場危害。 A 銷售損失(lose sale):權利人因潛在消費者選擇AI複製創作取代原作,而失去收入。 B 市場稀釋 (market dilution):AI生成內容之速度以及規模對訓練資料中同類作品之市場造成稀釋風險,原作者將更難銷售其作品亦將使消費者更難找到真人創作之作品[17]。AI所生成風格相似之作品亦會導致市場稀釋,風格非為著作權所保障之方為,惟若AI生成與作品風格相似之內容,即便未有實質相似,但消費者可能因此難以分辨AI創作與真人作者,將使AI作品與原作者之作品於市場上直接競爭而影響原市場[18]。 C 喪失授權收入機會 (lost licensing opportunities):權利人本可就其作品於市場上有授權收入之機會,但因AI未經授權使用作品進行訓練而喪失該部分收入[19]。 三、 授權使用 對於AI自願授權之情形於近年越來越普遍,報告亦肯認自願授權之可行性,雖自願授權可行,且已有開發商開始實施,惟對於完全滿足AI產業之需求仍存有疑義[20]。該報告認為,即便現階段自願性授權仍為發展中之制度,但該制度確實能避免使用著作權作品之不確定性。著作權局認為應讓自願性授權制度於授權市場於無政府干預情形下繼續發展,若未來於特定類型作品中出現失靈情形時,再考慮進行擴大集體授權等干預措施[21]。 參、事件評析 AI訓練使用著作權保護作品是否可以合理使用作為抗辯為近年AI發展下著作權高度討論問題之一。目前美國各地法院中有40多件相關案件正在進行審理,然就此報告之結論觀之,其並未對AI訓練是否可作為合理使用給予統一解答,合理使用與否仍須視個案而定。如同報告結論所提及,AI訓練過程中,使用受著作權保護作品可能具有轉化性,但是否足以構成合理使用,仍須視其所使用之作品、來源以及目的等個案因素而定[22]。AI訓練於著作權仍存在一定程度之不確定性。 值得注意的是,雖報告並未明示AI訓練使否為合理使用著作權作品,惟其立場似乎更偏向有利於著作權利人。例如報告中於轉化性認定具有灰色地帶,開發商是否能主張合理使用仍需於後續由法院個案認定。此外,報告中提及市場稀釋理論,目前尚未有法院採用,對合理使用之認定較為嚴格,即使未有實質相似之生成內容亦有可能因影響市場競爭被視為非合理使用,可見該理論對著作權利人之權利保障。 同時著作權局亦正向看待產業界透過自願性授權進行作品訓練之方法,雖該制度於AI訓練上尚未為一完善制度,但確實地授權制度能同時促進產業發展並保護著作權[23]。目前實務上亦是以此種作法解決合理使用之困境,但授權制度仍有待市場持續發展完善制度以確保能符合AI訓練之需求。 美國著作權局之報告雖對AI使用著作權保護作品進行訓練進行分析及說明,惟其結論仍是認為判斷上需依照個案分析。目前國際上尚未有對AI合理使用之實際定論,自願性授權仍為產業界所使用之方法。我國著作權法亦未對AI訓練之合理使用有說明,國際上將會如何發展仍有待觀察。 資策會科法所創智中心致力於著作權相關科技法律研究,本中心將持續關注相關議題並更新動態。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 3: Generative AI Training pre-publication version, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf [2]U.S. Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last viewed: 2025/05/19) [3]supra note 1, at 26. [4]Id. at 27. [5]AI模型之建立仰賴神經網,主要功能為將輸入資料轉換為輸出資料。神經網路之運作方式係透過大量於訓練過程中產生之參數進行運案,而該些參數即為「權重」(weights)。 [6]Id. at 28. [7]Id. [8]Id. at 30. [9]Id. at 36-37. [10]轉化性係指新作品加入新元素,具有與原作不同目的或性質,且以新表達、意義或訊息改造原作。並且新作品於市場上較不會取代原作。 [11]Id. at 46. [12]Id. [13]Id. at 47. [14]Id. at 48. [15]Id. at 54. [16]Id. at 60. [17]Id. at 65. [18]Id. at 65-66. [19]Id. at 66-67. [20]Id. at 85. [21]Id. at 106. [22]Id. at 107. [23]Id. 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟執委會以濫用獨占地位處罰斯洛伐克電信及其母公司德意志電信經過深入的調查後,歐盟執委會以違反歐洲聯盟運作條例(TFEU)第102條之禁止濫用獨占地位課處斯洛伐克電信(Slovak Telekom a.s.)及其母公司德意志電信(Deutsche Telekom AG)總計38,838,000歐元之罰金。 斯洛伐克電信以超過五年之濫用獨占地位之策略,阻擋其他來自斯洛伐克市場之競爭者提供寬頻服務,因而違反歐盟反托拉斯法。尤其,執委會認為其拒絕提供開放之用戶迴路(unbundled access to its local loops)予其競爭者,因而導致其他經營者之利潤擠壓。其母公司德意志電信對於其子公司之行為有責;因此,應連帶負擔斯洛伐克電信之罰款。此外,德意志電信於2003年已經因為在德國寬頻市場的利潤擠壓而被罰款,該公司亦被課處額外之罰款共31,070,000歐元,以確保嚇阻及制裁其反覆的濫用行為。 2005年8月,斯洛伐克電信公布在某些條件下,允許其他經營者使用其開放用戶迴路(ULL)。此外,斯洛伐克電信亦不正當地阻擋用戶迴路開放的必要網路資訊;單方面地減少規範中所要求其開放迴路之義務的範圍,以及,在每一個取得開放用戶迴路所需之步驟上,設定不公平的條款和條件(例如搭配、資格、和銀行擔保)。因而延後或阻止其他經營者進入斯洛伐克零售寬頻服務市場。 此外,當其他競爭者以斯洛伐克電信訂定之零售價格販賣寬頻服務予零售消費者時,將產生利潤擠壓而導致虧損;在此種情況下,其他經營者將無法進入斯洛伐克市場。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
OECD發布《數位化推進資料治理以促進增長和福祉》、《資料治理政策制定之數位化指南》報告2023年5、6月經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD)在邁向數位化計畫(Going digital Project)下陸續公布53個國家地區科學技術創新政策(science, technology and innovation policy)指標。OECD另一方面也提供許多政策工具供各政府參考,如2022年12月發布《數位化推進資料治理以促進增長和福祉》(Going Digital to Advance Data Governance for Growth and Well-being),並出版《資料治理政策制定之數位化指南》(Going Digital Guide to Data Governance Policy Making),協助應對轉型為數位治理時的潛在益處與風險。 《數位化推進資料治理以促進增長和福祉》指出,數位工具發展使資料蒐集、處理的效能大幅增加,邊際成本快速下降,為經濟、社會注入新驅動力。OECD觀察到COVID-19疫情危機中,各國政府藉多樣的資料有效追蹤疾病並做出相應對策;然而,也出現資料治理不當案例,如有勞動中介機構不慎在資料應用時加深性別勞動的不平等。因此,資料成為治理的戰略資產同時也需詳加了解資料多樣化的特性,在資料跨領域產製、流通與利用的過程中一併考量其益處與風險。 《資料治理政策制定之數位化指南》則點出三個發現,並提供相應策略做為各國政府治理參考。第一,關切資料開放同步產生的益處與風險,建議應確立風險管理的文化並建置透明且開放的資料生態系,以增加使用者的能動性,俾利人們自覺主動利用資料。其次,治理框架應平衡生態系中利害交疊的人民、企業團體、政府各部門等,藉契約範本、行為準則等機制確保決策各環節中利害關係人的參與機會和框架的一致性。第三,資料的邊際成本雖一再降低,然而進入門檻、後續管理的負擔仍重,政府應持續激勵資料的基礎建設投資,促進市場競爭並解決後進者的阻礙。