歐盟發布《歐洲資料治理規則》草案

  歐盟執委會於2020年11月25日公布「歐洲資料治理規則」(Proposal for a Regulation on European data governance (Data Governance Act))草案。本立法草案係延續同年2月發布「歐洲資料戰略」(European data strategy)所提出之立法規劃,針對該戰略所揭示的資料治理政策願景,於制度面予以明文化。而本草案亦為該戰略發布後,首次提出的具體性措施。其制定的主要目的,在於透過強化資料中介機構(data intermediaries)的公信力、以及優化歐盟整體的資料共享機制,來提升資料的可取得性(availability)。

  依草案條文內容,其主要立法面向如下:

(1)界定本法的立法目的,在於規範歐盟內部再利用公部門所持有之特定類型資料的條件,確立資料共享服務的通報與監督框架,並針對基於利他(altruistic)目的蒐集處理資料之實體(entities),建構自願註冊的制度;另一方面則進行本法的名詞定義。

(2)公部門資料再利用機制:整體性規範由公部門所持有、但涉及商業機密、智慧財產權、個資等之資料再利用的一致性標準。其以保護既有的營業秘密、個資、智財權等為前提,確立該些資料再利用的標準作法(如原則以非專屬形式再利用、可收取合理費用)。有意再利用上述資料的公部門,應於技術面保護其隱私與機密性。

(3)針對資料共享服務供應商的通報機制:要求提供資料共享服務的供應商,於正式對外提供其服務前,應先向各成員國的權責機關通報其業務,藉以增加外界對共享個資與非個資之資料機制的信賴度,同時降低資料共享的交易成本。同時,資料共享服務供應商於資料交換應保持中立,不能為其他目的使用資料;其共享服務應以開放及協作的方式進行,並優化自然人或法人查閱與控制其資料的環境,藉以強化個資自主權。

(4)資料利他主義(data altruism)的明文化:定義非營利、具普遍性共同目標之組織,得向歐盟註冊成為資料利他主義組織。透過此認證制度,增加組織公信力,以推動個人或公司出於公共利益,自願提供資料。同時,授權歐盟執委會可制定通用之歐洲資料利他主義同意書(European data altruism consent form),減少個別收集資料使用同意書之成本。

(5)成員國資料共享權責機關之職責:其應公正、透明、一致、及時履行其職責,監督與實施資料共享服務供應商與資料利他主義組織的通報與註冊機制。例如,其有權要求資料共享服務供應商提交必要訊息,以確保其作為是否符合本法要求。同時,權責機關成員不得為資料共享服務的供應商。

(6)歐洲資料創新委員會(European Data Innovation Board):此為一專家小組之設置要求,負責協助成員國權責機關之作法,遵循資料治理法所訂標準。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟發布《歐洲資料治理規則》草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8585&no=64&tp=5 (最後瀏覽日:2025/10/03)
引註此篇文章
你可能還會想看
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

日本《科學技術指標》

  日本《科學技術指標》為文部科學省直接管轄之國立實驗研究機關「科學技術與學術政策研究所(NISTEP)」於每年度發布,主要為讓閱讀者基於客觀而定量的數據,體系性地掌握日本國內科學技術活動的基礎資料,將科學技術活動區分為「研究開發費」、「研究開發人才」、「高等教育與科技人才」、「研究開發產出」、以及「科技與創新」等5個類別,同時制定約180個指標以表達日本國內狀況。本年度公布的《科學技術指標2019》,則新增了「日本與美國各部門擁有博士學位者」、「各產業研究人才集中度與高端研究人才活用程度間之關係」、「主要國家取得博士學位之人數的變動狀況」、「運動科學研究類論文動向」、「主要國家貿易額度的變動狀況」、「各國與各類型獨角獸企業數」等20個指標。   依《科學技術指標2019》分析,日本的研究開發費與研究者人數於日、美、俄、法、英、中、韓等七個國家中皆位居第三,論文數則為世界排名第四,受高度矚目的論文數世界排名第九,專利家族(Patent Family)數世界排名第一而與去年相同。就產業的部份,研究者中擁有博士學位者之比例依據產業類型的不同而有所差異,與美國相較,高階人才之實際就業情況未能充分發揮其所學。另一方面,就每一百萬人中有取得博士學位的人數,在各主要國家當中,僅有日本呈現減少的趨勢。

單一顏色可否註冊成為商標? --- 英國知名巧克力品牌Cadbury成功將其招牌包裝用色「紫色」註冊為商標

  英國知名巧克力品牌Cadbury2004年10月向英國智慧財產局提出商標申請,欲將其招牌包裝用色(Pantone 2685C紫色)註冊為商標,指定使用於巧克力相關產品的包裝上,產品包含巧克力條、巧克力片、巧克力糖、包有內餡的巧克力、可可亞飲料、巧克力飲料、巧克力蛋糕。   自此,單一顏色是否可註冊成為商標之爭議不斷出現,努力長達將近8年,Cadbury終於今年4月在英國獲准將該紫色註冊成為商標。   註冊公告後Cadbury最大競爭對手Nestle(雀巢)旋即提出異議,其認為該紫色不具有識別性,且即便有識別性被核准註冊,其被賦予的商標權範圍亦過寬大(該紫色註冊商標指定使用之產品種類眾多)。   此顏色商標註冊爭議戰火持續燃燒,直至今年本月(10月),由英國高院(High Court)判決確認。法官首先說明單一顏色能做為商標保護標的,只要商標申請人明確定義清楚顏色色號(Pantone number)及顏色使用方式。此外,單一顏色註冊成為商標,商標權保護範圍應特別注意,僅限於使用該顏色時具有識別性之特定產品或服務上。   回到本案,法官提及Cadbury從1914年起即使用此紫色於牛奶巧克力棒(Dairy Milk bars),且Cadbury已提出足夠證據證明Pantone 2685C紫色具由識別性,相關消費者看到該紫色會聯想到Cadbury。然而,法官亦同時指出,對相關消費者而言,該紫色使用於牛奶巧克力及飲品時,方具有識別性,使用在其他巧克力相關產品上時,並不具有識別性,故法官就紫色註冊商標保護範圍進行了限縮。   針對判決結果,Cadbury高興地表示取得顏色商標對於品牌識別性及維護有正面作用,除了文字商標外,對品牌又多了一層保護。   此判決出爐後,似乎可預見日後將有更多品牌企業申請註冊顏色商標,加強品牌保護。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP