歐盟根據資料治理法及實施規則,透過通用標章管理資料中介服務提供者及資料利他主義組織

歐洲執委會(European Commission)根據2022年6月23日生效的資料治理法(Data Governance Act, DGA)第11條及第17條,於2023年8月9日公布資料治理法及實施規則(Commission Implementing Regulation (EU) 2023/1622 of 9 August 2023),該規則明定可用於識別「受認證的歐盟資料中介服務提供者(data intermediation services providers)及資料利他主義組織(data altruism organisations)」的通用標章(Common logos)之細節,且該通用標章已申請商標註冊,以保護其免於遭受不當利用。

經歐盟認證的「資料中介服務提供者」向服務利用者提供服務時,應確保服務利用者(個人及公司)可以有效的控制自己的資料,包含共享資料的對象及時間、可在不同裝置間共享資料等。經歐盟認證的「資料利他主義組織」則應以全歐盟通用之統一格式的歐洲利他主義同意書(data altruism consent form)在各成員國之間蒐集資料,並應確保資料主體(data subject)可以隨時撤回其同意。

識別受認證的「資料中介服務提供者」及「資料利他主義組織」是實施資料治理法的一環。受認證的「資料中介服務提供者」及「資料利他主義組織」選擇使用通用標章時,不僅須將通用標章清楚標示在所有線上的出版品上,亦須將通用標章清楚標示在所有線下的出版品。經歐盟認證的「資料利他主義組織」在標示通用標章時須附上可連結到「歐盟認證的『資料利他主義組織』之公開登記資料庫(public register of data-altruism organisations)」的QR code,歐盟將於2023年9月24日開始提供該公開登記資料庫。在歐盟層面,這些通用標章的利用可以易於識別被認證的「資料中介服務提供者」及「資料利他主義組織」與其他未經認證的服務提供者,有助於提高整體資料市場的透明度。

由於數位資料具有易於竄改、複製等特性,因此需要透過「可信任工具」來證明其來源正確、內容真實等,歐盟即以「通用標章」來識別「資料中介服務提供者」及「資料利他主義組織」。我國法務部、司法院、高等檢察署、法務部調查局和內政部警政署等機關共同推動司法聯盟鏈,並於2022年推出「b-JADE證明標章」,透過認證機制確保鏈下之數位資料於上鏈前具有可信任性。通過驗證並取得「b-JADE證明標章」的機關、機構或團體等組織,對外可證明其具備資料治理暨管理能力及保護數位資料之能力,且可取得申請加入「司法聯盟鏈」之機會。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 歐盟根據資料治理法及實施規則,透過通用標章管理資料中介服務提供者及資料利他主義組織, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9060&no=64&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
Common sense並非 Obviousness的代名詞

  美國聯邦第二上訴巡迴法院於去年12月9日做出判決,維持先前佛羅里達州南區地方法院對於 Perfect Web Tech. 公司之專利第6,631,400號(以下簡稱專利400號)做出該專利無效之簡易裁決。第二上訴巡迴法院在 Perfect Web Technologies Inc. v. InfoUSA Inc. 一案中對於判斷一項專利的顯而易見性 (obviousness) 上,“常識”(common sense)所代表的意義做出解釋。   此案最初係由 Perfect Web Tech 控訴InfoUSA 侵害其所持專利400號,該專利為 “一種管理大批 (bulk) 電子郵件傳送到各不同鎖定目標的方法”。專利400號包含了4道程序,第一至第三道程序包含將大批的電子郵件寄送到一鎖定目標對象的群組,並計算當中寄送成功的數量。第四道程序則為重覆程序一至三,直到寄送成功的數量超過原設定的最低成功數量。對此InfoUSA向法院提出裁定專利400號無效的簡易裁決,而地方法院以 “程序一至三為先前技術 (prior art),程序四則僅為合乎邏輯的常識做法”而准予該請求並裁定專利400號無效。   第二上訴巡迴法院維持原判的理由在於專利400號不符合於KSR案中關於 “顯而易見性”的判斷原則。訴訟雙方皆同意程序一至三為先前技術,而法院認為程序四是 “常識”下的產物, “是一般人都顯然會去嘗試的結果”。Linn 法官更進一步指出像這樣的案子根本不需要專家證詞,只需用一般人的常識判斷即可。但是判決中亦同時聲明,若要援用 “常識”來判斷一項專利的顯而易見性,地院或專利審查官必須要能將判斷的依據解釋清楚以受公評。此判決結果意味著如果係爭的專利技術較為複雜,被告將必須要依賴有利的專家證詞以成功證實爭論的要點僅止於常識運用且具有顯而易見性。

美國眾議院法制委員會全體一致通過專利法2007年改革法案

  美國眾議院法制委員會於七月十八日全體一致通過「專利法2007年改革法案」( Patent Reform Act of 2007),根據美國軟體與資訊工業協會( Software & Information Industry Association,簡稱SIIA)的總裁Ken Wasch表示,該修正案的通過是美國專利制度現代化的重要指標,而一個有效率且公正的專利制度對於繼續美國國內經濟發展並領導全世界經濟時具有舉足輕重的地位。眾議院的議員Howard Berman表示,對於美國專利核發品質低落、花費高昂及時間冗長的訴訟程序已經嚴重地阻礙到創新力與創造力。這次修法的目的在於改善專利的品質、嚇阻專利所有人權利的濫用、以異議專利的有效性的方式以提供更有意義且低花費的替代式專利訴訟、並讓美國專利法能與其他國家的專利法調合。   該法案除了通過的部分包括「不正當行為」(Inequitable Conduct )、「犯罪地的限制」(Restrictions on Venue)、「損害賠償的取得」(Awards of Damage)修正。最令人注意的是,刪除了最具爭議的「專利權核准後審查程序」( Posted- granted Review),該程序並無時間的限制,而始得專利侵權訴訟中之被告能夠對專利之有效性向美國專利商標局提出再審的請求。法制委員會對此程序舉行多次公聽會,但修正案仍以增加現有「專利再審制度」( Reexamination)的方式取代之。   實務界認為,本修正案會使得專利的價值降低,而使得一些非以製造產品為公司營運目的,但專事經營擁有並實施專利權為主要歲收來源的「專利巨人」(Patent Tolls)公司生存困難。

美國參議員提案修改股票選擇權(stock option)租稅處理優惠

  美國參議員Carl Levin最近提出一項名為「終止公司股票選擇權租稅優惠法」(Ending Corporate Tax Favors for Stock Options Act, S. 2116,以下簡稱:股票選擇權租稅優惠終止法)的草案,主要目的是希望改變公司對於股票選擇權費用化的租稅處理(tax treatment of corporate stock option deductions)。   就租稅意義而言,公司發給員工(包括高階經理人及一般員工)的股票選擇權為薪資的一種,而根據美國內地稅法規定,目前公司在申報股票選擇權的薪資支出(compensation expense)減項時,可以申報的費用比公司帳簿上所登載的更高。由於此一稅法上獨厚股票選擇權的處理,使得近年來許多美國企業支付給主要高階經理人的薪資,有一大部分是股票選擇權,此現象在科技產業亦甚為顯著,其結果造成公司高階經理人與一般員工的薪資差距越益擴大。   「股票選擇權租稅優惠終止法」要求公司於薪資支出項下申報的股票選擇權費用,必須與公司帳簿所記載的數目一致,同時,股票選擇權也應與其他類別的公司薪資費用一樣,同樣受到1百萬美元的費用上限之申報限制,至於股票選擇權申報費用的時點,則不須要等到選擇權行使(exercise)的年度。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP