歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。
《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。
歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。 本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。 總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。
美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用? 資訊工業策進會科技法律研究所 2025年06月04日 美國著作權局於2025年5月發布著作權與AI第三部分報告之預出版本 (Copyright and Artificial Intelligence Part 3: Generative AI Training pre-publication version)[1],該報告重點為生成式AI訓練資料與著作權之關係,彙整各方意見並分析現行法制之挑戰及修改方向,目前發布之版本為預出版本,該報告說明將於近期發布最終確認版,預期其結論與實質內容並不會有修改。 壹、事件摘要 美國著作權局自2023年起即開始對AI所引發之著作權法律及政策問題進行研究,同年8月著作權局發布著作權及AI諮詢通知(Comments on Artificial Intelligence Notice of Inquiry, NOI),徵集各界對AI著作權議題之意見,著作權局亦針對相關議題舉辦多場公聽會及研討會協助意見之蒐集[2]。NOI發布後蒐集到之意見經著作權局整理分析,於2024年7月起發布AI著作權報告,第一部分為數位仿造,第二部分於2025年1月發布為就AI作品之著作可保護性之分析,而同年5月所發布之第三部分則聚焦於生成式AI之訓練。 生成式AI於訓練過程可能大量使用受著作權保護之作品,此份報告針對訓練過程可能涉及之著作權問題進行分析,主要說明AI模型訓練過程中使用受著作權保護作品是否可構成合理使用。 貳、重點說明 一、生成式AI模型訓練及模型權重對重製權之侵害 使用受著作權保護作品進行AI模型訓練涉及著作權中之重製,除非開發者能提出授權或其他合理抗辯如合理使用等,否則可能對一項或多項著作權利構成初步侵權(Prima Facie Infringement)。AI開發者於模型訓練階段會進行多次作品複製,包含下載作品、於儲存媒介間轉換、將作品進行格式化或製作副本等[3],模型訓練過程中暫時複製之作品亦有可能因其存在於時間足夠而構成重製權之侵害[4]。 在特定情形下,模型權重(model weights)[5]之複製亦可能構成重製權之侵害。訓練過程可能使模型權重包含著作權作品,而若第三方複製了包含著作權作品之模型權重,即便其未參與模型之訓練,亦可能構成初步侵權[6]。若模型能在未經外部輸入之情形下產出與訓練範例相似之內容時,表示此範例必以某種形式存在於模型權重中,故此模型權重之複製極有可能侵犯著作重製權[7]。換言之,不僅開發者有可能因模型權重之複製侵害著作權人之權利,部署、使用等第三方若複製模型權重亦有可能構成對重製權之侵害。 著作權局指出,模型權重究竟是否會構成重製權或甚至衍生作品之侵權,須判斷該模型權重是否保留與作品受權利保護部分實質相似之內容,僅有在實質相似之情形下,模型權重之複製才可能構成侵權[8]。 二、合理使用 對著作權作品之合理使用可做為作品重製權的抗辯,著作權局於報告中就不同因素分析AI使用著作權作品進行訓練是否得主張合理使用。AI於訓練過程中會有多次複製行為,惟在判斷AI模型訓練是否為對作品之合理使用,仍須視整體使用情境進行判斷[9]。 (1) 作品轉化性須視模型目的及佈署判斷 報告中分析作品之轉化性(transformativeness)[10],AI訓練使用作品是否具有轉化性並非絕對,而是依據模型最終之功能及佈署有程度上之區別,須依個案判斷。若模型之訓練目的為用於研究或封閉系統,則該模型具高轉化性;若其目的是生成與訓練用作品實質相似之結果時,不具轉化性。多數模型之轉化程度會落在前述兩極端之中間,如模型使用特定類型之作品進行訓練,用以生成使用目的與原作相同之內容時,即便其生成內容未有實質相似,頂多僅為有限度之轉化(modestly transformative)[11]。AI開發商得於其系統設置防護措施,限制模型複製受著作權保護作品之節錄內容,使生成內容之目的與原作品不同,此措施能使模型訓練更具轉化性[12]。 有論者認為,使用受著作權保護作品進行AI模型訓練並非出於表達目的,且近似人類學習,因此實質上應是具有轉化性的,著作權局否定了前述兩種說法。報告中說明,語言模型於訓練時所吸收的內容包含文句、段落及文件之排列選擇,並非單純僅吸收其單字含意,且所生成之模型是被用作創造表達性內容,故不得謂AI模型為非表達性目的[13]。其次,針對人類學習觀點,報告首先闡明,學生基於學習目的亦不得以合理使用為由複製整本著作,因此人類學習並不得直接作為合理使用之抗辯。生成式AI之訓練能迅速分析並生成完美之作品,此非如同人類經學習後會產出具個別人格特質之結果,故著作權局不同意AI模型之訓練為與人類學習相同具有轉化性之論點[14]。 (2) 受著作權保護作品之表達性 AI訓練所使用之受著作權保護作品若具較高創作或表達性,如小說、電影等,其著作權比其他作品如電腦編碼等功能性作品更接近著作權之保護核心。而AI模型訓練來源多元,因此判斷上仍須視個案模型及作品而定。 (3) 使用作品之合理比例 AI模型訓練需大量複製受著作權保護作品,於判斷其複製比例是否合理時,係判斷模型訓練所複製之部分對於受著作權保護作品之數量及重要性使否合理[15]。作品使用之合理性,須考量重要性以及數量,若模型僅使用小部分作品做訓練,但該部分為著作權作品之核心部分,此使用並不一定合理。 在使用完整作品層面,生成式AI較一般搜尋引擎更不具合理性,生成式AI所提供之資訊並非僅限於其訓練資料庫中所複製作品資料。然而,許多生成式AI之訓練方式必須使用完整作品進行訓練,因此,著作權局指出,雖開發者使用完整作品進行訓練與合理使用相悖,但若其訓練具有轉化性目的(transformative purpose),並且有必要透過大量作品之訓練以提升模型效能時,則使用整部作品進行訓練可能被認為合理[16]。換言之,使用完整作品進行訓練合理與否須連同其使用必要性及訓練目的一併考量。 (4) 影響原作品之潛在市場或價值 報告中點出三項生成式AI訓練可能造成的市場危害。 A 銷售損失(lose sale):權利人因潛在消費者選擇AI複製創作取代原作,而失去收入。 B 市場稀釋 (market dilution):AI生成內容之速度以及規模對訓練資料中同類作品之市場造成稀釋風險,原作者將更難銷售其作品亦將使消費者更難找到真人創作之作品[17]。AI所生成風格相似之作品亦會導致市場稀釋,風格非為著作權所保障之方為,惟若AI生成與作品風格相似之內容,即便未有實質相似,但消費者可能因此難以分辨AI創作與真人作者,將使AI作品與原作者之作品於市場上直接競爭而影響原市場[18]。 C 喪失授權收入機會 (lost licensing opportunities):權利人本可就其作品於市場上有授權收入之機會,但因AI未經授權使用作品進行訓練而喪失該部分收入[19]。 三、 授權使用 對於AI自願授權之情形於近年越來越普遍,報告亦肯認自願授權之可行性,雖自願授權可行,且已有開發商開始實施,惟對於完全滿足AI產業之需求仍存有疑義[20]。該報告認為,即便現階段自願性授權仍為發展中之制度,但該制度確實能避免使用著作權作品之不確定性。著作權局認為應讓自願性授權制度於授權市場於無政府干預情形下繼續發展,若未來於特定類型作品中出現失靈情形時,再考慮進行擴大集體授權等干預措施[21]。 參、事件評析 AI訓練使用著作權保護作品是否可以合理使用作為抗辯為近年AI發展下著作權高度討論問題之一。目前美國各地法院中有40多件相關案件正在進行審理,然就此報告之結論觀之,其並未對AI訓練是否可作為合理使用給予統一解答,合理使用與否仍須視個案而定。如同報告結論所提及,AI訓練過程中,使用受著作權保護作品可能具有轉化性,但是否足以構成合理使用,仍須視其所使用之作品、來源以及目的等個案因素而定[22]。AI訓練於著作權仍存在一定程度之不確定性。 值得注意的是,雖報告並未明示AI訓練使否為合理使用著作權作品,惟其立場似乎更偏向有利於著作權利人。例如報告中於轉化性認定具有灰色地帶,開發商是否能主張合理使用仍需於後續由法院個案認定。此外,報告中提及市場稀釋理論,目前尚未有法院採用,對合理使用之認定較為嚴格,即使未有實質相似之生成內容亦有可能因影響市場競爭被視為非合理使用,可見該理論對著作權利人之權利保障。 同時著作權局亦正向看待產業界透過自願性授權進行作品訓練之方法,雖該制度於AI訓練上尚未為一完善制度,但確實地授權制度能同時促進產業發展並保護著作權[23]。目前實務上亦是以此種作法解決合理使用之困境,但授權制度仍有待市場持續發展完善制度以確保能符合AI訓練之需求。 美國著作權局之報告雖對AI使用著作權保護作品進行訓練進行分析及說明,惟其結論仍是認為判斷上需依照個案分析。目前國際上尚未有對AI合理使用之實際定論,自願性授權仍為產業界所使用之方法。我國著作權法亦未對AI訓練之合理使用有說明,國際上將會如何發展仍有待觀察。 資策會科法所創智中心致力於著作權相關科技法律研究,本中心將持續關注相關議題並更新動態。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 3: Generative AI Training pre-publication version, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf [2]U.S. Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last viewed: 2025/05/19) [3]supra note 1, at 26. [4]Id. at 27. [5]AI模型之建立仰賴神經網,主要功能為將輸入資料轉換為輸出資料。神經網路之運作方式係透過大量於訓練過程中產生之參數進行運案,而該些參數即為「權重」(weights)。 [6]Id. at 28. [7]Id. [8]Id. at 30. [9]Id. at 36-37. [10]轉化性係指新作品加入新元素,具有與原作不同目的或性質,且以新表達、意義或訊息改造原作。並且新作品於市場上較不會取代原作。 [11]Id. at 46. [12]Id. [13]Id. at 47. [14]Id. at 48. [15]Id. at 54. [16]Id. at 60. [17]Id. at 65. [18]Id. at 65-66. [19]Id. at 66-67. [20]Id. at 85. [21]Id. at 106. [22]Id. at 107. [23]Id. 本文同步刊登於TIPS網站(https://www.tips.org.tw)
智慧電表的陷阱美國及歐洲都開始引進附加通訊功能的電表(所謂智慧電表)。這一波動向也真正開始影響到日本。日本國內最大家的東京電力公司將於2010年10月開始進行智慧電表的實際驗證研究。 雖然至今只有關西電力公司與九州電力公司有引進智慧電表,但在10年之後,日本大半以上的電表會是智慧電表。 從短期來看,智慧電表就只具有使用電力的遠距抄表跟遠距截斷的功能。但是就只具有這樣的功能是不足以讓眾多目光聚焦的,它所具有的是期待在未來透過電表跟家電機器等所形成的資訊通信網絡。在目前許多企業打算就先透過網路蒐集使用電力的資訊,之後在提供新的附加服務。 這樣的動向不只是發生在電力公司,在瓦斯及自來水業界也正在發生。例如東京瓦斯公司將於2010年度起,開始實驗運作具有無限通訊功能的瓦斯表,快的話在2012年就會正式更換約1000萬台的瓦斯表。東京瓦斯公司還計畫在之後將用於瓦斯表上的通訊系統擴張到自來水表的抄表上。美國企業如IBM公司也積極投入自來水表的「智慧化」。 但是,在實際引進智慧電表時,美國發生了引進智慧電表的住戶的電費急速增加,產生了不少的訴訟,美國德州Oncor電力公司正面對這樣的訴訟,加州的PG&E公司的顧客也正聲請相關的訴訟。 專家們指出一些會影響電費增加的原因,其中就指出因為引進智慧電表使得「正確測量出電力使用量」這也是因為美國至今所使用的電表太過老舊,無法正確的測量出正確的電力使用量,以致用戶都在付出比實際使用量要少的電費。所以在引進智慧電表測量出正確的電力使用量之後,就產生出「電費增加」的錯覺。 現在美國的電力公司主要把智慧電表用於自動抄表上,這只是利用智慧電表的第一步。若在初始階段無法得到消費者的支持,之後要推廣則會更為困難。使用電力的相關資訊在某種意義上可視為是個人資料的其中一種。隱私權的問題等與消費者保護汲汲相關的議題陸續都會出現。 美國眾議員Edward Markey在眾議院提出了電力公司要將智慧電表所測量的電力使用資訊即時提供給消費者,並有保護該資訊隱私權義務化的法案。在技術面上,有關重視資訊安全的通訊型式的討論亦蓬勃發展起來。
Facebook支付5.5億美元解決涉及侵犯隱私的訴訟案使用過Facebook(臉書)上傳照片時,不難發現其內建功能可透過臉部辨識「自動標記」(tag)好友的功能,建議用戶標記照片內的人物,而自從該功能於2011年啟用後,始終存有侵害用戶隱私權的疑慮。本案訴訟自2015年開始,及針對臉書「自動標記」的標籤建議功能爭論。美國於2018年經美國聯邦法院裁定,該功能在未經用戶同意的情況下蒐集並存儲相關使用者的生物特徵資料(biometric data),違反美國伊利諾州(Illinois)生物識別資料隱私法(Biometric Information Privacy Act)。雖然臉書已開始公開與用戶說明其可選擇關閉其識別功能,並針對上述聯邦法院判決提出上訴,卻仍於2019年8月敗訴。因此臉書同意以5.5億美元和解,用於支付伊利諾州的用戶(符合條件的)及訴訟相關費用。