GDPR跨國執法新程序帶來的變革 資訊工業策進會科技法律研究所 2025年12月10日 隨著2025年12月12日歐盟官方公報(Official Journal, OJ)正式發布《一般資料保護規則》(General Data Protection Regulation, GDPR)跨境執法補充程序規則[1](Regulation (EU) 2025/2518),表彰歐盟立法者在協調GDPR跨境執法邁出關鍵的一步。新規則規範各成員國個資監管機關(Supervisory Authorities, SAs)於執行跨境GDPR投訴與進行案件調查的應遵守程序規則。 壹、立法背景 個資監管機關在其成員領土範圍享有管轄權,惟控制者或處理者於多成員國設立據點或處理資料時,各監管機關必須合作並共享決策,此種方式稱為一站式機制(one-stop-shop mechanism)。營運者主要據點的個資監管機關應負責協調監督任務,該主責之個資監管機關稱為主導監督機關(Lead Supervisory Authority, LSA),與此相對的個資監管機關被稱為相關監督機關(Supervisory Authorities Concerned, CSA),兩者需合作過程中交換相關資訊。此種合作模式偏向分散式執法,而導致個人救濟的遲延、如企業主要據點變更須移轉SA管轄權導致執法程序延宕等諸多功能性缺陷,減損GDPR希望達到的執法一致性[2]。 於此背景下,歐盟執委會(European Commission)便提出了一項補充性規則提案[3],企圖提高各盟成員個資監管機關跨境執法效率與一致性。這項提案於2025年6月16日達成協議[4],於2025年10月21日由歐盟議會(European Parliament)宣布通過最終文本,並後續於同年11月17日由歐盟理事會(Council of the European)正式宣布通過,於同年12月12日正式發布於歐盟官方公報(Official Journal, OJ)。 貳、重點概覽 一、 統一的申訴規則 新補充規範適用之前提涉及跨境執法,其具體適用範圍主要有兩類,其一是基於申訴之調查(complaint-based);第二類是基於職權之調查(ex officio)。此外,涉及跨境處理之案件進行申訴處理與調查,亦包括判定該案件是否屬於跨境處理。 新補充規則進一步調整以往各國不協調的申訴受理標準,建構統一的跨國申訴受理標準。依據新補充規則,提起跨境資料處理的申訴案件,應包含: 1.申訴人之姓名與聯絡資訊; 2.有助於識別被申訴對象(資料控制者或處理者)的資訊; 3.涉及違反GDPR行為之描述。 除前述資訊外,不得要求提供其他額外資訊作為其可受理之要件。監管機關應於2周內評估申訴是否可受理,受理申訴之個資監管機關如認定該申訴未包含前述資訊,應於收到該申訴之兩週內,宣告其為不可受理,並將其理由告知申訴人。 二、程序保障-意見陳述與行政檔案的資訊近用 對於受調查的組織,新補充規則提供相對應的程序保障,以確保個資監管機關做出最終決定前,組織能有意見陳述的機會,也就是意見陳述權(The right to be heard)。 當主導監督機關(Lead Supervisory Authority, LSA)初步認為存在違反GDPR的行為時,必須先擬定「初步調查結果」(preliminary findings)給受調查組織。該初步調查結果必須包含事實、證據和法律評估,以及擬採取的糾正措施(例如罰款)。 初步調查結果通知後,受調查的組織有少至三週時間,至多有六週時間以書面回應或申請聽證。 陳述意見權的配套是對行政檔案之近用權,被調查當事人與申訴人均有權近用行政檔案,但須排除: 1.監管機關內部資訊; 2.商業機密或其他機密資訊。 三、提升案件決策效率的機制 目前對GDPR執法的常見批評之一是決策速度緩慢。新補充規引入較嚴格的決策期限限制和提高效率的機制。 (一) 決策期限 原則上,主導監管機關應於其管轄權獲確認之日起十五個月內提出決定草案;該期間僅得於例外情形下延長一次。 (二) 早期解決程序 引入一套機制來快速處理申訴。如果GDPR違法行為已得到糾正,且投申訴不成立,在申訴人不提出異議的情況下,個資監管機構得逕行結案。 (三) 簡化合作程序 對於「情節明確、無合理疑義」之案件,個資監管機關得選擇採行簡化之合作程序,以避免行政官僚程序所造成之延宕。 參、結語 跨境執法補充程序規則,旨在解決過去跨境個資案件中程序延宕、不一致等長期性問題。具體而言,其措施包含進一步細化申訴可受理標準、明確化調查程序的陳述意見權、行政檔案近用與商業機密保護並提高決策效率。 這套補充規則透過更詳細的規範,補足既有一站式機制的不足,有機會使跨境資料處理申訴案件能更有效率且同時以兼顧透明度與正當程序之方式獲得解決。 [1] Regulation (EU) 2025/2518, O.J. L, 2025/2518, 12.12.2025, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=OJ:L_202502518 [2] European Parliament [EP], Newly proposed GDPR procedural rules: Improving efficiency and consistency 4(2024). [3] COM(2023)0348 – C9-0231/2023 – 2023/0202(COD). [4] European Council [EC], Data protection: Council and European Parliament reach deal to make cross-border GDPR enforcement work better for citizens, https://www.consilium.europa.eu/en/press/press-releases/2025/06/16/data-protection-council-and-european-parliament-reach-deal-to-make-cross-border-gdpr-enforcement-work-better-for-citizens/ (last visited Dec.8, 2025)
英國發布著作權與人工智慧報告書與影響評估英國發布著作權與人工智慧報告書與影響評估 資訊工業策進會科技法律研究所 2026年04月09日 英國政府於2026年3月18日依據《資料使用與存取法》(Data (Use and Access) Act 2025,下稱DUAA)第135條及第136條之法定義務,發布《著作權與人工智慧報告書》(Report on Copyright and Artificial Intelligence,下稱「報告書」)[1]及《著作權與人工智慧影響評估》(Copyright and AI Impact Assessment,下稱「影響評估」)[2]兩份官方文件。前揭文件係英國政府對人工智慧(Artificial Intelligence,下稱AI)使用著作權作品所進行之全面性政策評估,並對英國在AI著作權的修法路徑造成實質影響,使政府原先屬意的修法路徑被迫暫停推進。 壹、事件摘要 英國政府自2024年12月17日起展開「著作權與人工智慧」公開意見徵詢,徵詢期間至2025年2月25日止,共計收到11,520份回應。回應者涵蓋著作權人、創作者、AI模型開發者、學術研究機構、文化遺產機構及法律專業人士等,惟各自占比並未揭露。基於DUAA第135條及第136條之法定義務,英國政府須於法案通過後九個月內完成相關報告,遂於2026年3月18日同步公布「報告書」及「影響評估」。 報告書之主軸在於評估四大政策選項:選項0(維持現狀)、選項1(強化著作權保護)、選項2(廣泛資料探勘例外)、選項3(資料探勘例外附加選擇退出機制)。徵詢結果顯示,英國政府原傾向推動之「選項3」(附選擇退出之廣泛例外),在逾萬份回應中僅獲約3%之支持率,致使政府不得不重新審視其政策立場。 貳、重點說明 一、《資料使用與存取法》之立法脈絡 AI訓練資料可能涵蓋大量受著作權保護作品,如何權衡創作者權益與AI創新的效益,是目前各國所面臨的核心挑戰。此部分涉及各國著作權法規是否允許AI在未經授權的情況下利用著作權保護之作品,各國對此採取不同立場,相關法制爭議至今仍未有定論。英國係於《著作權、設計及專利法》(Copyright, Designs and Patents Act 1988,下稱CDPA)第29A條[3]設有文字及資料探勘(Text and Data Mining,下稱TDM)例外,意即資料使用者得於特定條件下,對其可合法取用之著作進行自動化分析而不構成侵權。惟其適用範圍僅限於「非商業研究目的」,使得AI業者在商業訓練場景中難以援引此一例外。 為解決前述挑戰,英國提出四種政策方向並徵詢公眾意見,其結果可見於「報告書」及「影響評估」。以下針對此四種政策選項進行說明。 二、四大政策選項之比較分析 (一)選項0:維持現狀 選項0係維持英國現行著作權法架構,AI業者原則上須就使用著作權作品取得授權,僅得於CDPA第29A條非商業研究之例外範圍內進行TDM。影響評估指出,現行制度對著作權人之保護在理論上尚稱完備,然受限於AI訓練資料來源缺乏透明度,著作權人實際上難以知悉其作品是否遭擅自使用,舉證更屬不易,致使授權機制形同虛設。此外,若境外AI業者以海外訓練之模型輸入英國市場,英國著作權人之權益亦難以獲得有效保障。 (二)選項1:強化著作權保護 選項1主張進一步強化著作權保護,要求所有AI訓練使用之材料均須取得授權,包括境外AI模型輸入英國市場時,亦須證明已依英國著作權法取得合法授權。就創意產業而言,此選項能更有力保障著作權人之財產權,並使其得從AI訓練中獲得合理報酬;然對AI業者而言,合規成本之提高將增加訓練門檻,可能壓抑英國本土AI產業之競爭力。影響評估亦指出,此選項下AI服務成本或轉嫁至終端用戶,影響政府及企業之AI採用率。選項1獲得了最高的支持度,有81%回應者贊同此一制度。 (三)選項2:廣泛TDM例外 選項2主張設立廣泛TDM例外,使AI業者無論商業或非商業目的均可對合法取得之資料進行探勘與訓練,無需逐一取得著作權人授權。此一制度係參考日本著作權法第30條之4。該條文指出,只要目的非在「享受著作物所呈現之思想或感情」原則上均可免授權使用,意即資料分析、資料蒐集與AI訓練等基於「情報解析」行為皆屬TDM例外範疇。 選項2雖有助於降低AI業者法遵成本並提升英國AI研發之國際競爭力,然創意產業普遍擔憂,廣泛例外將使生成式AI大量學習創作者作品,卻無需給付任何報酬,且可能產出直接競爭於原著作人之內容,嚴重侵蝕其市場利益。此選項僅有極少數回應者支持,如OpenAI、Anthropic等大型AI公司。 (四)選項3:TDM例外附加選擇退出機制 選項3原先為英國政府屬意推動的政策選項,亦與歐盟《數位單一市場著作權指令》(DSM Directive)第4條[4]之商業TDM例外架構相近,其核心設計係為原則上允許AI業者對合法取得之資料進行TDM,但著作權人得透過技術手段(如robots.txt)明確保留其權利(即選擇退出機制)。 然而,此選項在公開意見徵詢中僅獲約3%之支持率,其主要爭議在於:對創作者而言,選擇退出機制實質上將著作權保護之責任轉嫁至個人,中小型的創作者往往缺乏必要之技術能力或資源執行退出操作;並非所有爬蟲程式均遵從robots.txt協議;跨境訓練亦難有效管制。此外,在欠缺揭露義務的前提下,創作者仍無從知悉其作品是否遭侵權使用。 三、訓練資料透明度要求 報告書顯示,逾90%之意見回應者認為AI開發者應揭露訓練資料來源,惟各方對於揭露顆粒度(granularity)之要求存在明顯分歧:著作權人傾向主張細緻揭露至個別作品層次;AI業者則認為高層次概括揭露即已足夠。 就國際立法例而言,歐盟《AI法》(AI Act)第53條[5]第1項第4款已要求AI模型提供者製作並公開訓練內容摘要;美國加州亦已制定《生成式AI訓練資料透明度法》(Generative Artificial Intelligence: Training Data Transparency Act)。[6]英國雖無相關法定揭露義務,但在報告書中表示將持續監測其他國家透明度規範之實施效果,並與業界合作制定訓練資料揭露之最佳實務,以期為著作權人提供更有效之權利主張基礎。 參、事件評析 公眾諮詢的結果顯示,尋求著作權保護與AI創新發展的平衡點極具挑戰性。由於引起及大的社會反彈,英國政府被迫放棄「TDM例外附加選擇退出機制」之規劃,然而未來是否會徹底走向「強化著作權保護」仍未可知。然而,在本次諮詢中,有90%之回應者支持AI訓練資料透明度要求;歐盟AI法、美國加州生成式AI透明度法均課予AI業者一定程度的訓練資料揭露義務。從此觀之,縱使著作權人與AI業者之間存有諸多重大分歧,但透明度要求是目前雙方的共識基礎。 我國現行法制下AI訓練所遭遇到的爭議與英國類似,著作權人與AI業者的利益衝突如何化解亦為我國當前AI發展的課題。故英國經驗揭示,政策推行或法令修正宜建立多元利害關係人持續對話機制;此外,在法令、技術標準尚未成熟之情況下,業界最佳實務指引或可作為過渡性替代方案。 [1] GOV.UK, Report on Copyright and Artificial Intelligence (2026), https://assets.publishing.service.gov.uk/media/69ba692226909a14239612e4/CP2602959_-_Report_on_Copyright_and_Artificial_Intelligence_web.pdf (last visited. Apr. 9, 2026). [2] GOV.UK, Copyright and AI Impact Assessment (2026), https://assets.publishing.service.gov.uk/media/69ba68f7c06ba9576435abb0/CP2602959_-_AI_and_Copyright_Impact_Assessment_Web.pdf (last visited. Apr. 9, 2026). [3] Copyright, Designs and Patents Act 1988, legislative.gov.uk, https://www.legislation.gov.uk/ukpga/1988/48/section/29A (last visited Apr. 9, 2026). [4] Directive (EU) 2019/790, art. 4, 2019 O.J. (L 130) 92, 114. [5] Regulation 2024/1689, art. 53, 2024 O.J. (L 1689) 1, 84. [6] Bill Text - AB-2013 Generative artificial intelligence: training data transparency, California Legislative Information, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240AB2013 (last visited Apr. 9, 2026).
從Google提起的「FITBEING」商標異議案談JPO對於近似與著名商標的判斷日本特許廳(Japan Patent Office,後稱JPO)於2024年6月駁回Google公司對來自中國大陸的深▲せん▼小▲ちぇ▼科技有限公司(後稱中國大陸公司)有關「FITBEING」文字商標的註冊異議,認為中國大陸公司的「FITBEING」商標與Google公司的「FITBIT」商標在外觀、發音等方面存在顯著差異,因此不會對消費者造成混淆。 中國大陸公司於2023年1月在日本申請註冊「FITBEING」文字商標,指定於第14類的「鐘錶和計時儀器」等商品。Google公司於同年8月對該商標提出異議,主張「FITBEING」商標與其於2018年註冊的「FITBIT」文字商標,在拼寫及發音上相似,並有致相關消費者混淆誤認之可能,違反日本商標法第4條第1項第11款、第15款。此外,Google公司亦表示其「FITBIT」文字商標已為Google穿戴設備的「周知」標識,應具有排他性。 JPO指出,儘管「FITBEING」和「FITBIT」在拼寫上皆以「FITB」開頭,惟二者字尾的「ING」和「IT」無論在文字外觀、字母數量還是音節數量上的差異皆具顯著差異。此外,JPO亦評估「FITBIT」商標是否為「周知」商標。依日本商標法第4條第1項第10款規定,與消費者廣泛認識其為表示他人營業商品或服務之商標相同或近似,使用於同一或類似之商品或服務者,不得註冊商標。本案中,JPO指出Google公司所提供的證據,包括各國市場調查報告和廣告宣傳資料,卻未能提交足夠的日本市場調查資料,以證明「FITBIT」在日本已被相關消費者廣泛認識為Google穿戴式設備的「周知」標識。因此,基於雙方商標近似及周知程度,JPO駁回了Google公司的異議,認定兩商標無導致消費者混淆誤認之虞。 由本案可知,日本JPO對商標近似性的判斷標準與我國大致相同,均會考量商標的外觀、發音及涵義的差異。企業在設計創作商標時,應檢視商標的外觀、讀音以及涵義,避免欲註冊商標與現有商標近似,以避免無法取得註冊商標。此外,若欲主張「周知商標」,企業應確保提交充分的當地市場調查資料證明商標的知名程度,包括當地市場的消費者調查結果及銷售資料等,當面臨爭議時,用以主張商標的著名程度。 本案目前經JPO駁回Google公司的異議後,尚無進一步的訴願或訴訟公開資訊。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw/)
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。