優質網路社會基本法之推動芻議

刊登期別
第241期,2006年04月11日
 

※ 優質網路社會基本法之推動芻議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=1883&no=57&tp=1 (最後瀏覽日:2025/11/27)
引註此篇文章
你可能還會想看
美國國會提出SHIELD法案 圍堵專利蟑螂橫行

  為反制專利蟑螂利用訴訟方式滋擾實際從事研發以及實施專利者,美國國會於2012年8月提出SHIELD法案(Saving High-Tech Innovators from Egregious Legal Disputes Act of 2012 ),顧名思義本法案之目的在於防免高科技創新者陷於惡意挑起的法律爭端之中。該法案補充美國聯邦專利法規定,使得法院得在發現當事人一造並無合理勝訴之可能而仍舊對電腦硬體或軟體專利之有效性提起訴訟,或主張被侵權時,法院得判決其回復全部訴訟之費用支出予除美國以外勝訴之一造(the prevailing party),包括合理之律師費。   SHIELD法案原立意良善,但其也可能就像兩面刃,例如法案的規範內容用語抽象,以致於在企圖達到其立法目的外,未同時設想可能造成的法律陷阱或未預期之法律效果。就法案內容來看,其賦予法院得判決要求回復訴訟費用及律師費之人(所謂勝訴之一造)並不限於原告。又本法案得適用在任何電腦或軟體專利的訴訟,因此,當兩家大型公司相互就專利實施進行對決時,SHIELD法案無異使得原本已經成本很高的競爭更提高雙方的賭注。此外,法案中對「電腦」的定義,不限於一般認知的「軟體或電腦硬體公司」,使得從金融業到汽車製造都可能涵蓋在內,例如銀行就有許多系統可能同時連接具專利之電腦或其他軟體組件。更重要的是,何時勝訴方可獲得律師費之補償判決,法案亦沒有給法院明確之範圍。   雖然本法案最後通過與否或通過施行後的樣貌仍未可知,但可得知的是對於部分NPE之負面利用專利制度之行為,已促使政府與法界思索專利制度如何衡平專利權保護而更能達到專利制度設置之目的,而其未來顯然仍有一段遙遠的路要走。

從美國政府責任署建議國防部應改善其處理智慧財產的方式初探美國國防部之智財管理

從美國政府責任署建議國防部應改善其處理智慧財產的方式初探美國國防部之智財管理 資訊工業策進會科技法律研究所 2022年2月15日   根據美國政府責任署(U.S. Government Accountability Office,下稱GOA)於去(2021)年12月發布的報告指出,美國國防部(U.S. Department of Defense,下稱DOD)對智慧財產的管理能力不足,可能降低任務準備程度並導致維運軍武的成本飆升[1]。本文將簡介GOA報告的發現,聚焦於DOD的智財管理情況,藉此一窺美國國防部的智財管理模式。 壹、事件摘要   美國國會於2018年通過《國防授權法案》(National Defense Authorization Act,簡稱NDAA),裁示DOD建立智財取得及授權政策,DOD據此訂定其智財指令、規劃智財權責單位、人員及相關培訓機制,嗣後國會於2021年委請GAO檢視DOD之智財指令及其執行情況。 貳、重點說明 一、DOD的智財指令   DOD依據以下智財相關法規,設定其智財指令,如:使小型企業、大學和其他非營利組織可保留其發明之專利權的《拜杜法》(Bayh-Dole Act)[2]、授予無論規模大小所有聯邦締約方全部或部分由聯邦資金所獲得的專利權之12,591號行政命令[3],以及要求DOD應訂定相關規範以解決和締約方間技術資料的相關權利之《國防採購改革法案》(Defense Procurement Reform Act)[4]等,並強調六項核心原則[5]: 1.將智慧財產權規劃整合到採購策略中,以考量對競爭力和可負擔性的長期影響。 2.確保採購專業人員具備履行公務所需的相關智財知識,以支援智財採購規劃期間內進行關鍵的跨職能協調。 3.對智財可交付成果和相關授權進行特別協商,相較標準授權能更有效地平衡DOD和產業界間的利益。 4.就預期智財和維運目標與產業界進行明確有效的溝通。 5.尊重和保護私部門和政府資助的智慧財產權。 6.政府必須確保締約方所交付之智財成果和有相應的授權。 二、GAO檢視DOD之智財指令執行結果   應國會要求,GAO對DOD的智財指令進行通盤檢視,並對智財權責單位、人員及負責培訓之機構展開調查,訪談相關人員指令的實際執行情況,其檢視結果如下: (一)DOD的智財指令不足以促進其取得智財的製程細節或處理資料權利之能力   DOD智財指令雖整合取得、授權智財的相關法規和指引等要求,並強調其核心原則,然該指令和DOD其它相關的內部指令仍未有更明確的內容可解決取得細部製程或處理資料權利的問題。DOD通常會為其新銳軍武器系統-包含電腦軟體、技術資料、用戶手冊等取得或註冊智財權,而DOD智財指令所指的技術資料,是包括任何科學或技術性質的記錄資訊,如:產品設計或維護資料和電腦軟體檔案(含:執行程式碼、開源碼、程式碼清單、設計細節、流程、流程圖等);但常未同步取得用於運行和維護武器系統的智財,如:細部製程或技術資料等[6],倘若未及早取得或獲得相關授權,可能影響軍武系統的操作和維護,從而影響武器的競爭力,並增加管理成本[7]。   實際上,GAO已接獲因技術資料取得問題而對任務有不良影響的報告:2021年7月F-35計劃因維修供應商取得的技術資料不足以滿足維護需求,使關鍵的引擎維修時間比預期的更久;2020年3月部分海軍艦艇計劃的維護作業也因缺乏技術資料出問題,而上述情況若在計畫前期就確認包含技術資料和細部製程等所需智財,並在採購過程中及早規劃取得,可因此節省後續衍生的數十億美元維護成本[8]。 (二)DOD尚未為智財人員訂定完善的策略、人員配置規劃和投注足夠的資源,以充分履行智財指令所規定的廣泛職責   根據GOA的調查與訪談相關人員,智財人員在以下情況都面臨不確定性: 1.資金和人員配置   DOD目前計劃在2023財會年度前,為智財主任及其在國防部長辦公室(Office of the Secretary of Defense,下稱OSD)的團隊提供五個職位的資金,但其中四個為臨時職位,這可能在招聘人才的過程中造成反效果,不利於未來的人員配置。 2.連結其他計劃專家支援不足之處   OSD的智財人員希望DOD中其他計畫的智財專家庫能提供支援,協助訂定智財策略並與承包商進行談判等事宜,但DOD尚未針對 OSD智財團隊將如何和其他專家合作提出具體作法。 3.專業知識   DOD的智財指令指出智財人員應該具備:採購、擬定契約、工程學、法律、後勤、財務分析以及估值等領域的專業知識,但受訪談的人員表示,該部門目前在智財權估值和財務分析這兩個關鍵領域仍有不足,仍須進行補強[9]。 (三)智財培訓涵蓋多項活動但未安排優先順序,且未具體確定哪些人員應該接受培訓   DOD的智財培訓由其設立的美國國防武獲大學(Defense Acquisition University,又譯為國防軍需大學,下稱 DAU)執行,該大學專為國防相關之政府人員、承包商提供採購、技術和後勤等專業培訓[10]。為改善智財培訓,DAU展開為5年期的智財策略計畫,計有60多項活動待執行,但該策略計劃缺乏重點,沒有排出活動的優先順序,也未具體提出DOD的哪些智財人員應該接受培訓[11]。 (四)DOD須致力發展追蹤已取得/授權智財之後續使用情況的能力   DOD目前的智財指令指示相關政府單位須管理智財相關的契約及智財文件,以避免在採購智財及其相關授權時重複採購,或隨時間流逝而喪失智財權,然而根據訪談結果,相關人員表示DOD採購極大量的智財或相關授權,但不具備追蹤各個智財獲授權使用情形的能力[12]。 三、GAO對DOD的建議   GAO彙整其檢視DOD智財指令執行情況的結果後,對DOD提出下列四個建議[13],建議內容不外乎是指定與智財管理相關的重要項目須指定負責人,且該負責人須為對應智財相關單位的較高管理階層,確保待改善項目有監督與執行者。 (一)完善智財指南   採購及維護次長(The Under Secretary of Defense for Acquisition and Sustainment)應確保DOD智財指南已闡明DOD人員將如何取得細部製程或技術資料。 (二)確保跨部門合作與資源連結   國防部長(The Secretary of Defense)應確保部長辦公室和各部門所需的合作、人員配置和資源,以連結各計畫智財相關專家、人員。 (三)確認智財活動優先順序   採購助理部長(Assistant Secretary of Defense for Acquisition)應確保智財主任(Director of the IP Cadre)與DAU主席合作,為DAU在2023年至2025年間主責與智財相關活動確定優先順序。 (四)確保智財培訓效益   採購助理部長(Assistant Secretary of Defense for Acquisition)應確保智財主任訂定補充指引,以協助部門負責人和採購職業管理主任(Director of Acquisition Career Management,DACM)確定國防部人員在關鍵專業領域接受之智財培訓和取得的證書能使其有最大的獲益。 參、事件評析   綜觀GAO的檢視結果,雖然DOD的智財管理仍有改善空間,但以足見美國聯邦政府對其智財管理之重視程度,不僅指示部會自行管理智財,更透過部會外的公正單位,從規範到組織實際執行情況進行通盤檢視;而部會內部對於智財管理的程度,已經從訂定和整合智財相關規範,進一步到落實在日常任務中,不只重視部會所需技術本身的智財取得或保護,更欲推進到策略計劃前期,將維護軍武相關的細部製程和技術資料等相關內容及權利也納入採購範圍,甚至為此盤點智財所需的專業能力、規劃培訓專門人員,以促進智財管理的量能,其對智財管理深化及重視的程度值得我國借鏡。 [1] GAO, Defense Acquisitions: DOD Should Take Additional Actions to Improve How It Approaches Intellectual Property, (Nov. 30, 2021), available at https://www.gao.gov/products/gao-22-104752 (last visited Feb. 7, 2022) [2] The Patent and Trademark Law Amendments Act of 1980 (Bayh-Dole Act), 35 U.S.C.§§ 200–211, 301–307. [3] President’s Memorandum to the Heads of the Executive Departments and Agencies,Government Patent Policy (Feb. 18, 1983); Exec. Order No. 12,591, § 1(b)(4), 52 Fed. Reg. 13,414 (Apr. 10, 1987) [4] Defense Procurement Reform Act, 1984, Pub. L. No. 98-525, § 1201. [5] Supra note 1, 17-18. [6] Id., 7, footnote 21. [7] Id., 1. [8] Id., 1. [9] Id., 24-28. [10] DAU, About DAU, at https://www.dau.edu/about (last visited Feb., 7, 2022) [11] Id., 29-30. [12] Id., 32-33. [13] Id., 33-34.

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

TOP