歐盟報告提出工業4.0帶來的三大變遷

  歐盟執委會下設機構策略與評估服務中心(CSES)在2016年2月向歐洲議會提出歐洲落實工業4.0政策執行分析報告,指出執行工業4.0帶來的科技、社會、以及商業環境變遷:
(1)科技變遷
數位化將對中小企業帶來挑戰,其中涉及之法律議題包括:促進數位安全致生之企業成本或風險、智慧財產權保護、個人資料與隱私、環境保護、健康和安全等。
(2)社會變遷
企業應用工業4.0技術時將面臨工作方式上之調整,整體工業4.0技術分佈不均則有可能導致集中化競爭的情形增加。
(3)商業環境變遷
隨著中小企業參與供應鏈,將帶來成本、風險、缺乏彈性、缺乏政策性的單獨運作等各方面挑戰,而重點在於藉由標準化串起整體產業,與其他的企業競爭。

  我國在2016年7月通過「智慧機械產業推動方案」,以精密機械之推動成果及我國資通訊科技能量為基礎,導入智慧化相關技術,建構智慧機械產業新生態體系,並且預期能打通供需生產資訊鏈,提升人均製造力,同時併以連結在地、連結未來、連結國際為推動策略主軸,其中相關的法律議題、以及對於社會或商業環境帶來的變遷影響評估,自屬重要。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟報告提出工業4.0帶來的三大變遷, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7668&no=55&tp=1 (最後瀏覽日:2025/12/13)
引註此篇文章
你可能還會想看
歐盟執委會提出資料治理與資料政策

歐盟執委會提出資料治理與資料政策 資訊工業策進會科技法律研究所 2020年10月12日   歐盟執委會(European Commission,以下簡稱執委會)於2020年7月提出「資料治理與資料政策」(Data Governance and Data Policies at the European Commission)[1],旨在說明歐盟執委會將如何透過資料治理及相關政策,轉型為資料驅動型組織(data-driven organization),並提供一致的方向或原則,促進執委會下各政務總署(Directorate-General)及事務部門(Service Department)(以下簡稱相關部門機構)之資料共享。 壹、背景目的   「促成歐洲適應數位時代,並使執委會成為完全數位化、具敏捷性、靈活性與透明性的歐盟組織」是執委會現任主席Ursula von der Leyen所提出的2019年至2024年政策願景之一[2]。隨著數位化發展,透明(transparent)、循證式(evidence-based)的決策需運用人工智慧資料分析技術,「資料」是直接影響人工智慧運用於政策決定的關鍵要素。欲提升人工智慧運用結果被信賴的程度,首先必須有可查找(findable)、可近用(accessible)、可互通(interoperable)、安全(secure)且高品質(high-quality)的資料。歐盟機構內部資料、資訊與知識的共享與治理,有助於此願景之達成。   因此,執委會提出「資料治理與資料政策」,建立執委會統一的資料治理架構與政策原則,幫助執委會轄下相關部門機構共同遵循資料管理(data management)、資料近用、資料保護、智慧財產權、資訊安全等相關法律與監理要求。同時,執委會亦期能藉此優化資料建立(creation)、蒐集(collection)、取得(acquisition)、存取(access)、利用(use)、處理(processing)、共享(sharing)、保存(preservation)與刪除(deletion)等資料生命週期必經流程,改善資料品質,提升資料管理及共享之效率。 貳、內容摘要   「資料治理與資料政策」的適用範圍為執委會及其相關部門機構所擁有、利用或再利用的資料集,包括政策決定所使用的資料、行政資料與個人資料。在「資料治理與資料政策」的執行上,則導入「遵守或解釋」(comply-or-explain)原則,除非法律明示規定為選擇性適用,否則執委會轄下相關部門機構皆需遵守;倘未遵守,則需就無法遵守的原因提出解釋。以下分別就「資料治理」與「資料政策」兩大部分重點說明。 一、資料治理   主要目的在建構執委會統一的資料治理架構,釐清相關角色的責任與相互依賴關係。依角色與任務的不同,執委會將資料治理分為三層級,並由秘書總署集體治理團隊(Secretariat-General corporate governance team)支援三層級的執行工作。 (一)策略層級(strategic level)   由資訊管理指導委員會(Information Management Steering Board, IMSB),處理資料治理與資料政策相關議題,界定長期推動願景、提供政策方向、監督推動與執行之進程,並作出策略決定。 (二)管理階層(managerial level)   由資料議題相關的組織、委員會、團體所組成之資料協調小組(data coordination groups)、各地區資料聯絡窗口(local data correspondent)、執委會各相關部門機構下的資料治理委員會(data governance board),以及策略層級就各資料集所指定之資料擁有者(data owner),依策略層級所提出之願景與政策方向,在各處建立並執行資料政策、監督執行進度,並向策略層級報告執行進度及任何超出其決策權限之問題。 (三)運作階層(operational level)   由資料擁有者選出或指派資料管理員(data steward),並與資料利用者(data user)實際執行資料政策,必要時將相關議題提到管理層級解決。 二、資料政策   就資料管理(data management)、資料互通性與標準(data interoperability and standards)、資料品質(data quality)、資料保護與資訊安全(data protection and information security)等核心面向,建立上位原則。   其中關於「資料管理」部分,又依資料生命週期細分。例如在「資料集建立、蒐集或取得」方面採取一次性原則,故執委會轄下相關部門機構在建立、蒐集或取得資料之前,需探詢必要資料或資訊是否已存在,避免重複取得。主要需求資料集的部門機構,應協助讓其他執委會相關部門機構或歐盟機構也獲得使用該資料集之權利。又例如「資料集存取、使用與共享」方面,除非歐盟相關的執委會決定、指令或規則另有規定[3],否則以「需要共享」(need to share)或「預設共享」(share by default)為原則,並使用一致化的資料管理與視覺化工具或資料平台。   針對「資料互通性與標準」與「資料品質」兩部分,著重在執委會內部的共通一致性,包括資料格式、資料相關詞彙、資料品質的定義與量測等。而在「資料保護與資訊安全」方面,則強調「歐盟機關個人資料保護規則」[4]相關義務,以及歐盟資料保護監督機關(European Data Protection Supervisor, EDPS)所提相關指引之遵循。 參、簡析   觀察歐盟執委會的「資料治理與資料政策」,可知其資料治理架構與相關政策,是以形成一個資料共享再利用生態系為藍圖。除了強調資料一次性建立及資料預設共享等原則,更從組織管理角度,界定不同單位或角色的任務與責任,並凸顯資料治理管理組織的建構,對資料政策執行之重要性。   我國政府長期致力於數位國家之發展,在政府資料開放政策推動上已有不少成果,例如建立政府資料開放平台、訂定各級機關資料開放作業原則、統一資料開放格式等。為持續厚植數位國家的資料應用能量,建議未來可進一步完善政府資料治理構面,兼納「政府對民眾之資料開放」及「公務機關間之資料共享」等面向,借鏡歐盟執委會之作法,確立資料共享再利用之管理架構及原則,提升政府資料應用的效率與效能。 [1] EUROPEAN COMMISSION, Data Governance and Data Policies at the European Commission (2020), https://ec.europa.eu/info/sites/info/files/summary-data-governance-data-policies_en.pdf (last visited Oct. 5, 2020). [2] See Ursula von der Leyen, My Agenda for Europe: Political Guidelines for the Next European Commission 2019-2024 (2019), https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf (last visited Oct. 8, 2020). [3] 例如歐盟執委會決定Commission Decision 2011/833/EU、歐盟規則Regulation (EC) No 1049/2001及歐盟指令Directive (EU) 2019/1024等,有關近用歐盟資料之例外規定。 [4] Regulation on the Protection of Natural Persons with regard to the Processing of Personal Data by the Union Institutions, Bodies, Offices and Agencies and On the Free Movement of Such Data, and Repealing Regulation (EC) No 45/2001 and Decision No 1247/2002/EC, Council Regulation 2018/1725, 2018 O.J. (L295) 39.

美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?

美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用? 資訊工業策進會科技法律研究所 2025年06月04日 美國著作權局於2025年5月發布著作權與AI第三部分報告之預出版本 (Copyright and Artificial Intelligence Part 3: Generative AI Training pre-publication version)[1],該報告重點為生成式AI訓練資料與著作權之關係,彙整各方意見並分析現行法制之挑戰及修改方向,目前發布之版本為預出版本,該報告說明將於近期發布最終確認版,預期其結論與實質內容並不會有修改。 壹、事件摘要 美國著作權局自2023年起即開始對AI所引發之著作權法律及政策問題進行研究,同年8月著作權局發布著作權及AI諮詢通知(Comments on Artificial Intelligence Notice of Inquiry, NOI),徵集各界對AI著作權議題之意見,著作權局亦針對相關議題舉辦多場公聽會及研討會協助意見之蒐集[2]。NOI發布後蒐集到之意見經著作權局整理分析,於2024年7月起發布AI著作權報告,第一部分為數位仿造,第二部分於2025年1月發布為就AI作品之著作可保護性之分析,而同年5月所發布之第三部分則聚焦於生成式AI之訓練。 生成式AI於訓練過程可能大量使用受著作權保護之作品,此份報告針對訓練過程可能涉及之著作權問題進行分析,主要說明AI模型訓練過程中使用受著作權保護作品是否可構成合理使用。 貳、重點說明 一、生成式AI模型訓練及模型權重對重製權之侵害 使用受著作權保護作品進行AI模型訓練涉及著作權中之重製,除非開發者能提出授權或其他合理抗辯如合理使用等,否則可能對一項或多項著作權利構成初步侵權(Prima Facie Infringement)。AI開發者於模型訓練階段會進行多次作品複製,包含下載作品、於儲存媒介間轉換、將作品進行格式化或製作副本等[3],模型訓練過程中暫時複製之作品亦有可能因其存在於時間足夠而構成重製權之侵害[4]。 在特定情形下,模型權重(model weights)[5]之複製亦可能構成重製權之侵害。訓練過程可能使模型權重包含著作權作品,而若第三方複製了包含著作權作品之模型權重,即便其未參與模型之訓練,亦可能構成初步侵權[6]。若模型能在未經外部輸入之情形下產出與訓練範例相似之內容時,表示此範例必以某種形式存在於模型權重中,故此模型權重之複製極有可能侵犯著作重製權[7]。換言之,不僅開發者有可能因模型權重之複製侵害著作權人之權利,部署、使用等第三方若複製模型權重亦有可能構成對重製權之侵害。 著作權局指出,模型權重究竟是否會構成重製權或甚至衍生作品之侵權,須判斷該模型權重是否保留與作品受權利保護部分實質相似之內容,僅有在實質相似之情形下,模型權重之複製才可能構成侵權[8]。 二、合理使用 對著作權作品之合理使用可做為作品重製權的抗辯,著作權局於報告中就不同因素分析AI使用著作權作品進行訓練是否得主張合理使用。AI於訓練過程中會有多次複製行為,惟在判斷AI模型訓練是否為對作品之合理使用,仍須視整體使用情境進行判斷[9]。 (1) 作品轉化性須視模型目的及佈署判斷 報告中分析作品之轉化性(transformativeness)[10],AI訓練使用作品是否具有轉化性並非絕對,而是依據模型最終之功能及佈署有程度上之區別,須依個案判斷。若模型之訓練目的為用於研究或封閉系統,則該模型具高轉化性;若其目的是生成與訓練用作品實質相似之結果時,不具轉化性。多數模型之轉化程度會落在前述兩極端之中間,如模型使用特定類型之作品進行訓練,用以生成使用目的與原作相同之內容時,即便其生成內容未有實質相似,頂多僅為有限度之轉化(modestly transformative)[11]。AI開發商得於其系統設置防護措施,限制模型複製受著作權保護作品之節錄內容,使生成內容之目的與原作品不同,此措施能使模型訓練更具轉化性[12]。 有論者認為,使用受著作權保護作品進行AI模型訓練並非出於表達目的,且近似人類學習,因此實質上應是具有轉化性的,著作權局否定了前述兩種說法。報告中說明,語言模型於訓練時所吸收的內容包含文句、段落及文件之排列選擇,並非單純僅吸收其單字含意,且所生成之模型是被用作創造表達性內容,故不得謂AI模型為非表達性目的[13]。其次,針對人類學習觀點,報告首先闡明,學生基於學習目的亦不得以合理使用為由複製整本著作,因此人類學習並不得直接作為合理使用之抗辯。生成式AI之訓練能迅速分析並生成完美之作品,此非如同人類經學習後會產出具個別人格特質之結果,故著作權局不同意AI模型之訓練為與人類學習相同具有轉化性之論點[14]。 (2) 受著作權保護作品之表達性 AI訓練所使用之受著作權保護作品若具較高創作或表達性,如小說、電影等,其著作權比其他作品如電腦編碼等功能性作品更接近著作權之保護核心。而AI模型訓練來源多元,因此判斷上仍須視個案模型及作品而定。 (3) 使用作品之合理比例 AI模型訓練需大量複製受著作權保護作品,於判斷其複製比例是否合理時,係判斷模型訓練所複製之部分對於受著作權保護作品之數量及重要性使否合理[15]。作品使用之合理性,須考量重要性以及數量,若模型僅使用小部分作品做訓練,但該部分為著作權作品之核心部分,此使用並不一定合理。 在使用完整作品層面,生成式AI較一般搜尋引擎更不具合理性,生成式AI所提供之資訊並非僅限於其訓練資料庫中所複製作品資料。然而,許多生成式AI之訓練方式必須使用完整作品進行訓練,因此,著作權局指出,雖開發者使用完整作品進行訓練與合理使用相悖,但若其訓練具有轉化性目的(transformative purpose),並且有必要透過大量作品之訓練以提升模型效能時,則使用整部作品進行訓練可能被認為合理[16]。換言之,使用完整作品進行訓練合理與否須連同其使用必要性及訓練目的一併考量。 (4) 影響原作品之潛在市場或價值 報告中點出三項生成式AI訓練可能造成的市場危害。 A 銷售損失(lose sale):權利人因潛在消費者選擇AI複製創作取代原作,而失去收入。 B 市場稀釋 (market dilution):AI生成內容之速度以及規模對訓練資料中同類作品之市場造成稀釋風險,原作者將更難銷售其作品亦將使消費者更難找到真人創作之作品[17]。AI所生成風格相似之作品亦會導致市場稀釋,風格非為著作權所保障之方為,惟若AI生成與作品風格相似之內容,即便未有實質相似,但消費者可能因此難以分辨AI創作與真人作者,將使AI作品與原作者之作品於市場上直接競爭而影響原市場[18]。 C 喪失授權收入機會 (lost licensing opportunities):權利人本可就其作品於市場上有授權收入之機會,但因AI未經授權使用作品進行訓練而喪失該部分收入[19]。 三、 授權使用 對於AI自願授權之情形於近年越來越普遍,報告亦肯認自願授權之可行性,雖自願授權可行,且已有開發商開始實施,惟對於完全滿足AI產業之需求仍存有疑義[20]。該報告認為,即便現階段自願性授權仍為發展中之制度,但該制度確實能避免使用著作權作品之不確定性。著作權局認為應讓自願性授權制度於授權市場於無政府干預情形下繼續發展,若未來於特定類型作品中出現失靈情形時,再考慮進行擴大集體授權等干預措施[21]。 參、事件評析 AI訓練使用著作權保護作品是否可以合理使用作為抗辯為近年AI發展下著作權高度討論問題之一。目前美國各地法院中有40多件相關案件正在進行審理,然就此報告之結論觀之,其並未對AI訓練是否可作為合理使用給予統一解答,合理使用與否仍須視個案而定。如同報告結論所提及,AI訓練過程中,使用受著作權保護作品可能具有轉化性,但是否足以構成合理使用,仍須視其所使用之作品、來源以及目的等個案因素而定[22]。AI訓練於著作權仍存在一定程度之不確定性。 值得注意的是,雖報告並未明示AI訓練使否為合理使用著作權作品,惟其立場似乎更偏向有利於著作權利人。例如報告中於轉化性認定具有灰色地帶,開發商是否能主張合理使用仍需於後續由法院個案認定。此外,報告中提及市場稀釋理論,目前尚未有法院採用,對合理使用之認定較為嚴格,即使未有實質相似之生成內容亦有可能因影響市場競爭被視為非合理使用,可見該理論對著作權利人之權利保障。 同時著作權局亦正向看待產業界透過自願性授權進行作品訓練之方法,雖該制度於AI訓練上尚未為一完善制度,但確實地授權制度能同時促進產業發展並保護著作權[23]。目前實務上亦是以此種作法解決合理使用之困境,但授權制度仍有待市場持續發展完善制度以確保能符合AI訓練之需求。 美國著作權局之報告雖對AI使用著作權保護作品進行訓練進行分析及說明,惟其結論仍是認為判斷上需依照個案分析。目前國際上尚未有對AI合理使用之實際定論,自願性授權仍為產業界所使用之方法。我國著作權法亦未對AI訓練之合理使用有說明,國際上將會如何發展仍有待觀察。 資策會科法所創智中心致力於著作權相關科技法律研究,本中心將持續關注相關議題並更新動態。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 [1]U.S. Copyright Office Copyright and Artificial Intelligence, Part 3: Generative AI Training pre-publication version, https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-3-Generative-AI-Training-Report-Pre-Publication-Version.pdf [2]U.S. Copyright Office, Copyright Office Issues Notice of Inquiry on Copyright and Artificial Intelligence, https://www.copyright.gov/newsnet/2023/1017.html (last viewed: 2025/05/19) [3]supra note 1, at 26. [4]Id. at 27. [5]AI模型之建立仰賴神經網,主要功能為將輸入資料轉換為輸出資料。神經網路之運作方式係透過大量於訓練過程中產生之參數進行運案,而該些參數即為「權重」(weights)。 [6]Id. at 28. [7]Id. [8]Id. at 30. [9]Id. at 36-37. [10]轉化性係指新作品加入新元素,具有與原作不同目的或性質,且以新表達、意義或訊息改造原作。並且新作品於市場上較不會取代原作。 [11]Id. at 46. [12]Id. [13]Id. at 47. [14]Id. at 48. [15]Id. at 54. [16]Id. at 60. [17]Id. at 65. [18]Id. at 65-66. [19]Id. at 66-67. [20]Id. at 85. [21]Id. at 106. [22]Id. at 107. [23]Id. 本文同步刊登於TIPS網站(https://www.tips.org.tw)

軟體安全性缺失成為買賣標的

  瑞士的網路安全公司WSLabi於2007年7月9日宣佈一項訊息,未來將在線上公開交易或交換一些軟體的安全性漏洞和弱點予軟體相關研究人員、安全代理商和軟體公司,價格從數百美元至數萬美元不等。而此意謂拍賣軟體瑕疵的新興市場即將被打開。   WSLabi公開拍賣軟體弱點與漏洞的作法引起了很大的爭論。以往軟體安全業者於發現軟體的弱點後,會與軟體開發者合作修補安全性弱點和漏洞,待修補完成後再公開宣佈修補軟體安全性弱點之相關訊息。但該公司的新作法將導致軟體公司未來可能因為無法及時修補弱點而商譽受損。因此該項計畫雖尚未實行,卻引起了不同看法的爭辯:支持者表示,此一計畫將有助於改善軟體弱點及安全漏洞的問題,並可鼓勵對於軟體的弱點的深入研究;然反對者卻認為,如果軟體的弱點和安全漏洞因而落入有心人的手中,利用於犯罪或幫助他人犯罪,將會對資訊安全形成極大威脅。再者,把其他公司開發的軟體弱點在市場上交易,可能也會引發道德與合法性的問題。   WSLabi於瞭解這項做法可能引起侵害著作權(重製、散布、販賣軟體等行為)、營業秘密與犯罪防治等法律上的爭議及國家安全的問題後表示,他們將會審慎地過濾選擇買主,不會將研究之結果出售予犯罪者或敵國政府。雖然如此,他們的說法仍引起質疑,畢竟判斷買主是否為善意或確定身份並非易事。

聯合國人權高級專員辦公室發布《數位時代隱私權》調查報告

  聯合國人權高級專員辦公室(Office of the United Nations High Commissioner for Human Rights, OHCHR)於2021年9月15日發布《數位時代隱私權》(The Right to Privacy in The Digital Age)調查報告,分析各種人工智慧技術,例如側寫(profiling)、自動化決策及機器學習,將如何影響人民之隱私或其他權利,包括健康權、教育權、行動自由、言論自由或集會結社自由等,並提出對國家與企業應如何因應之具體建議。 一、針對國家與企業使用人工智慧之共同建議:在整個人工智慧系統生命週期中,包括設計、開發、部署、銷售、取得(obtain)或運營,應定期進行全面的人權影響評估(comprehensive human rights impact assessments),提高系統使用透明度與可解釋性,並應充分通知公眾與受影響之個人其正在使用人工智慧進行決策。 二、針對國家使用人工智慧之建議:應確保所有人工智慧的使用符合人權,明確禁止並停止販售不符合國際人權法運作之人工智慧應用程序。在證明使用該人工智慧系統能遵守隱私及資料保護標準,且不存在重大準確性問題及產生歧視影響之前,應暫停在公共場所使用遠端生物識別技術。並盡速立法及建立監管框架,以充分預防和減輕使用人工智慧可能造成不利人權的影響,以及確保在侵犯人權時能夠有相關之補救措施。 三、針對企業使用人工智慧之建議:應盡力履行維護人權之責任,建議實施商業與人權指導原則(Guiding Principles on Business and Human Rights),並打擊(combat)人工智慧系統開發、銷售或運營相關的歧視,進行系統評估與監測,以及設計有效的申訴機制。

TOP