歐盟正式通過資料治理法(DGA),歐盟資料共享發展跨出一大步

  歐盟理事會(Council of the European Union)於2022年5月16日正式通過了資料治理法(Data Governance Act, 簡稱DGA),本法是歐盟執委會(European Commission)於2020年11月提案,經過一年多的意見徵詢與協商,歐盟議會(European Parliament)於今(2022)年4月6日以501票贊成通過,隨後由歐盟理事會通過公布,本法預計將於2023年8月正式生效。

  DGA包含幾大面向,除了針對資料中介服務(data intermediation)、資料利他主義(data altruism)、歐盟資料創新委員會(European Data Innovation Board)等機制建立的規定外,在第二章特別針對公部門所持有之特定類別資料的再利用(reuse)進行規定。當公部門持有的資料涉及第三方受特定法律保護的權利時(如涉及第三方之商業機密、智慧財產、個資等),本法規定公部門只要符合特定條件下可將此類資料提供外界申請利用;若為提供符合歐盟整體利益的服務且具有正當理由和必要性的例外情況下,得授予申請對象專有權(exclusive rights),但授權期間不得超過12個月;歐盟應以相關技術確保所提供資料之隱私和機密性。

  再者,各會員國應指定現有機構或創建一個新機構擔任提供上述資料類型的單一資訊點(Single Information Point, SIP),以電子方式公開透明地提供資料清單,包含可申請利用之資料的來源及相關描述(至少包含資料格式、檔案大小、再利用的條件等),以提供中小企業、新創企業便利、可信的資料查詢管道。此外,歐盟執委會應建立一個單一近用點(Single Access Point, SAP),提供一個可搜尋公部門資料的電子登記機制(a searchable electronic register of public-sector data),讓使用者得直接搜尋各會員國單一資訊點(SIP)中所提供的資料及相關資訊。

  DGA是歐盟2020年2月發布歐盟資料戰略(European Data Strategy)後的第一個立法,歐盟希望透過本法建立一套能提升資料可利用性和促進公私部門間資料共享的機制,以創造歐盟數位經濟的更高價值。

「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

相關連結
你可能會想參加
※ 歐盟正式通過資料治理法(DGA),歐盟資料共享發展跨出一大步, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8829&no=64&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

品牌商標命名之實踐與提醒─從杜邦分析要件判斷商標混淆誤認之關鍵

陽明交通大學於2025年7月11日,透過律師向美國商標審判及上訴委員會(The Trademark Trial and Appeal Board,簡稱TTAB)提出答辯主張,主張其商標(縮寫為NYCU)並未和紐約大學的商標(縮寫為NYU)有混淆誤認之虞,以下將以此案為例,說明實務上如何運用DuPont Factors(又稱杜邦分析要件)判斷混淆誤認,品牌商標命名、註冊等階段時應注意的風險和實務上可行的因應措施。 杜邦分析要件係源於1973年的E.I. DuPont de Nemours & Co. v. Celanese Corp.案,用13個判斷分析要件檢視是否有商標混淆誤認的情形,是美國審查實務,或者相關商標爭議判斷,最常引用的判斷標準,並視個案情形引用對應要件。 本案陽明交通大學提出答辯主張包括:NYU與NYCU字母、意義等整體印象不同(第1項);NYU提供美國正式教育學位課程,而NYCU僅限於台灣課程,未提供美國正式學位,雙方提供不同之教育服務(第2項);NYCU僅有限參與國際會議並未於美國招生,通路未重疊,且消費族群均為高知識與謹慎決策者(第3~4項);無任何實際混淆的證據(第7項);NYCU長期使用該縮寫於國內外學術交流與排名中,未發生混淆而顯示兩者商標可共存(第8項);NYCU合法註冊校名之縮寫,具有使用與排他性權利,無混淆意圖亦未仿冒(第11項);雙方市場截然不同,混淆風險極低(第12項),以及若不准NYCU使用將造成教育機構正常名稱縮寫受限,牽涉公共利益、學術發展與合理使用(第13項)等。 品牌企業或學研法人不論從命名、商標註冊階段,甚至到商標異議、撤銷、侵權爭議等判斷,不可忽視商標之混淆誤認風險,將可能被迫改名、下架商品或服務調整行銷素材、重啟品牌命名流程等,耗費人力、時間或經費。因此,務必完善品牌商標管理機制,確保能掌握混淆誤認之判斷原則、階段性評估檢核,以降低品牌撞名或近似他人註冊商標之情形,進而鞏固品牌價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國資通訊設備無障礙使用計畫趨勢觀察

發展階段支出可列為資產

  過去高科技企業或生化公司的研發專案,公司經常認為專案已成熟,可認列為無形資產,以分成幾年攤銷,不致影響損益;但會計師卻可能認為,其無技術可行性或者無使用和出售可能,仍主張認列為費用。   第三十七號會計公報 「無形資產的會計處理」 新近出爐,就無形資產清楚給予定義,並解釋如何進行會計處理與鑑價。其中最特別的是,第三十七號公報首次區分「研究」和「發展」階段的不同,發展階段有可能資本化。資本化最大的影響是,支出可以列為資產,不會影響損益,研究型企業的資產負債、損益表也將更為精準。   舉例來說,生化、製藥業者因研究期很長,所有研發期間的投入,過去都須列為費用,導致獲利被明顯稀釋;未來根據三十七號公報,企業專案計畫接近商品化的發展階段,就可以資本化,此時的損益表上費用項目,就不會那麼高, 因此,「發展」階段可列為資產,有助鼓勵科技業者增加研究發展經費的投入。   至於企業併購所產生的購買價格和被併公司淨值之間的溢價,過去通常以商譽處理,不過在 37 號公報上路後,會計師建議不應再把溢價直接當作商譽來處理,此乃因第 37 號公報所稱的無形資產,並不包含商譽,且必須具有「個別可辨認性」。因此,併購溢價應該區分為商譽和無形資產兩者,其後續評價對企業也較為有利。   此外會計業者也表示,促產條例中對研發投抵的認列,有可能受到三十七號公報的影響,需要做調整,這部分有待財政部進ㄧ步規範清楚。

TOP