為降低歐盟民眾在歐盟各國家間往來之行動通訊漫遊費用,歐盟在去年七月提出歐盟境內大眾行動網路漫遊規則,以期將歐盟各國間的行動漫遊費用減少70%。該草案迅速得到各會員國之認同,於今年六月通過,並在今年6月30日正式公布歐盟漫遊規則(EU Roaming Regulation),該規則於公布後,歐盟27個會員國家之行動通訊業者均受其拘束。
根據該規則第3條之規定,歐盟各會員國內提供漫遊服務之行動通訊業者向本國業者收取之漫遊批發價格不得超過每分鐘0.3歐元。未來兩年內,價格上限將逐年下降至0.28歐元及0.26歐元。至於零售價格部分,業者向消費者收取之漫遊費率為撥出電話不得超過每分鐘0.49歐元,接聽電話不得超過每分鐘0.24歐元。未來兩年內,該費率將逐年下降至0.46歐元/0.22歐元以及0.43歐元/0.19歐元。另外,原則上本國之行動通訊業者均應在消費者進入歐盟其他會員國的同時,以簡訊或語音的方式自動且免費的提供漫遊費率相關資訊。
目前該規則將實施三年,歐盟執委會將於實施18個月後對於實施成果加以檢討,以決定是否延長漫遊規則之實施期間以及是否將費率管制規則延伸至簡訊及資料漫遊服務。
英國發布著作權與人工智慧報告書與影響評估 資訊工業策進會科技法律研究所 2026年04月09日 英國政府於2026年3月18日依據《資料使用與存取法》(Data (Use and Access) Act 2025,下稱DUAA)第135條及第136條之法定義務,發布《著作權與人工智慧報告書》(Report on Copyright and Artificial Intelligence,下稱「報告書」)[1]及《著作權與人工智慧影響評估》(Copyright and AI Impact Assessment,下稱「影響評估」)[2]兩份官方文件。前揭文件係英國政府對人工智慧(Artificial Intelligence,下稱AI)使用著作權作品所進行之全面性政策評估,並對英國在AI著作權的修法路徑造成實質影響,使政府原先屬意的修法路徑被迫暫停推進。 壹、事件摘要 英國政府自2024年12月17日起展開「著作權與人工智慧」公開意見徵詢,徵詢期間至2025年2月25日止,共計收到11,520份回應。回應者涵蓋著作權人、創作者、AI模型開發者、學術研究機構、文化遺產機構及法律專業人士等,惟各自占比並未揭露。基於DUAA第135條及第136條之法定義務,英國政府須於法案通過後九個月內完成相關報告,遂於2026年3月18日同步公布「報告書」及「影響評估」。 報告書之主軸在於評估四大政策選項:選項0(維持現狀)、選項1(強化著作權保護)、選項2(廣泛資料探勘例外)、選項3(資料探勘例外附加選擇退出機制)。徵詢結果顯示,英國政府原傾向推動之「選項3」(附選擇退出之廣泛例外),在逾萬份回應中僅獲約3%之支持率,致使政府不得不重新審視其政策立場。 貳、重點說明 一、《資料使用與存取法》之立法脈絡 AI訓練資料可能涵蓋大量受著作權保護作品,如何權衡創作者權益與AI創新的效益,是目前各國所面臨的核心挑戰。此部分涉及各國著作權法規是否允許AI在未經授權的情況下利用著作權保護之作品,各國對此採取不同立場,相關法制爭議至今仍未有定論。英國係於《著作權、設計及專利法》(Copyright, Designs and Patents Act 1988,下稱CDPA)第29A條[3]設有文字及資料探勘(Text and Data Mining,下稱TDM)例外,意即資料使用者得於特定條件下,對其可合法取用之著作進行自動化分析而不構成侵權。惟其適用範圍僅限於「非商業研究目的」,使得AI業者在商業訓練場景中難以援引此一例外。 為解決前述挑戰,英國提出四種政策方向並徵詢公眾意見,其結果可見於「報告書」及「影響評估」。以下針對此四種政策選項進行說明。 二、四大政策選項之比較分析 (一)選項0:維持現狀 選項0係維持英國現行著作權法架構,AI業者原則上須就使用著作權作品取得授權,僅得於CDPA第29A條非商業研究之例外範圍內進行TDM。影響評估指出,現行制度對著作權人之保護在理論上尚稱完備,然受限於AI訓練資料來源缺乏透明度,著作權人實際上難以知悉其作品是否遭擅自使用,舉證更屬不易,致使授權機制形同虛設。此外,若境外AI業者以海外訓練之模型輸入英國市場,英國著作權人之權益亦難以獲得有效保障。 (二)選項1:強化著作權保護 選項1主張進一步強化著作權保護,要求所有AI訓練使用之材料均須取得授權,包括境外AI模型輸入英國市場時,亦須證明已依英國著作權法取得合法授權。就創意產業而言,此選項能更有力保障著作權人之財產權,並使其得從AI訓練中獲得合理報酬;然對AI業者而言,合規成本之提高將增加訓練門檻,可能壓抑英國本土AI產業之競爭力。影響評估亦指出,此選項下AI服務成本或轉嫁至終端用戶,影響政府及企業之AI採用率。選項1獲得了最高的支持度,有81%回應者贊同此一制度。 (三)選項2:廣泛TDM例外 選項2主張設立廣泛TDM例外,使AI業者無論商業或非商業目的均可對合法取得之資料進行探勘與訓練,無需逐一取得著作權人授權。此一制度係參考日本著作權法第30條之4。該條文指出,只要目的非在「享受著作物所呈現之思想或感情」原則上均可免授權使用,意即資料分析、資料蒐集與AI訓練等基於「情報解析」行為皆屬TDM例外範疇。 選項2雖有助於降低AI業者法遵成本並提升英國AI研發之國際競爭力,然創意產業普遍擔憂,廣泛例外將使生成式AI大量學習創作者作品,卻無需給付任何報酬,且可能產出直接競爭於原著作人之內容,嚴重侵蝕其市場利益。此選項僅有極少數回應者支持,如OpenAI、Anthropic等大型AI公司。 (四)選項3:TDM例外附加選擇退出機制 選項3原先為英國政府屬意推動的政策選項,亦與歐盟《數位單一市場著作權指令》(DSM Directive)第4條[4]之商業TDM例外架構相近,其核心設計係為原則上允許AI業者對合法取得之資料進行TDM,但著作權人得透過技術手段(如robots.txt)明確保留其權利(即選擇退出機制)。 然而,此選項在公開意見徵詢中僅獲約3%之支持率,其主要爭議在於:對創作者而言,選擇退出機制實質上將著作權保護之責任轉嫁至個人,中小型的創作者往往缺乏必要之技術能力或資源執行退出操作;並非所有爬蟲程式均遵從robots.txt協議;跨境訓練亦難有效管制。此外,在欠缺揭露義務的前提下,創作者仍無從知悉其作品是否遭侵權使用。 三、訓練資料透明度要求 報告書顯示,逾90%之意見回應者認為AI開發者應揭露訓練資料來源,惟各方對於揭露顆粒度(granularity)之要求存在明顯分歧:著作權人傾向主張細緻揭露至個別作品層次;AI業者則認為高層次概括揭露即已足夠。 就國際立法例而言,歐盟《AI法》(AI Act)第53條[5]第1項第4款已要求AI模型提供者製作並公開訓練內容摘要;美國加州亦已制定《生成式AI訓練資料透明度法》(Generative Artificial Intelligence: Training Data Transparency Act)。[6]英國雖無相關法定揭露義務,但在報告書中表示將持續監測其他國家透明度規範之實施效果,並與業界合作制定訓練資料揭露之最佳實務,以期為著作權人提供更有效之權利主張基礎。 參、事件評析 公眾諮詢的結果顯示,尋求著作權保護與AI創新發展的平衡點極具挑戰性。由於引起及大的社會反彈,英國政府被迫放棄「TDM例外附加選擇退出機制」之規劃,然而未來是否會徹底走向「強化著作權保護」仍未可知。然而,在本次諮詢中,有90%之回應者支持AI訓練資料透明度要求;歐盟AI法、美國加州生成式AI透明度法均課予AI業者一定程度的訓練資料揭露義務。從此觀之,縱使著作權人與AI業者之間存有諸多重大分歧,但透明度要求是目前雙方的共識基礎。 我國現行法制下AI訓練所遭遇到的爭議與英國類似,著作權人與AI業者的利益衝突如何化解亦為我國當前AI發展的課題。故英國經驗揭示,政策推行或法令修正宜建立多元利害關係人持續對話機制;此外,在法令、技術標準尚未成熟之情況下,業界最佳實務指引或可作為過渡性替代方案。 [1] GOV.UK, Report on Copyright and Artificial Intelligence (2026), https://assets.publishing.service.gov.uk/media/69ba692226909a14239612e4/CP2602959_-_Report_on_Copyright_and_Artificial_Intelligence_web.pdf (last visited. Apr. 9, 2026). [2] GOV.UK, Copyright and AI Impact Assessment (2026), https://assets.publishing.service.gov.uk/media/69ba68f7c06ba9576435abb0/CP2602959_-_AI_and_Copyright_Impact_Assessment_Web.pdf (last visited. Apr. 9, 2026). [3] Copyright, Designs and Patents Act 1988, legislative.gov.uk, https://www.legislation.gov.uk/ukpga/1988/48/section/29A (last visited Apr. 9, 2026). [4] Directive (EU) 2019/790, art. 4, 2019 O.J. (L 130) 92, 114. [5] Regulation 2024/1689, art. 53, 2024 O.J. (L 1689) 1, 84. [6] Bill Text - AB-2013 Generative artificial intelligence: training data transparency, California Legislative Information, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240AB2013 (last visited Apr. 9, 2026).
美國針對政府雲端運算應用之資訊安全與認可評估提案為建構政府雲發展的妥適環境,美國於今年度啟動「聯邦風險與認可管理計畫」(Federal Risk and Authorization Management Program, FedRAMP),由國家技術標準局(National Institute of Standards and Technology, NIST)、公共服務行政部(General Service Administration)、資訊長聯席會(CIO Council)及其他關連私部門團體、NGO及學者代表共同組成的跨部會團隊,針對外部服務提供者提供政府部門IT共享的情形,建構一個共同授權與持續監督機制。在歷經18個月的討論後,於今(2010)年11月提出「政府雲端資訊安全與認可評估」提案(Proposed Security Assessment & Authorization for U.S Government Cloud Computing),現正公開徵詢公眾意見。 在FedRAMP計畫中,首欲解決公部門應用雲端運算所衍伸的安全性認可問題,因此,其將研議出一套跨部門共通性風險管理程序。尤其是公部門導入雲端應用服務,終究會歸結到委外服務的管理,因此本計劃的進行,是希望能夠讓各部門透過一個機制,無論在雲端運算的應用及外部服務提供之衡量上,皆能依循跨機關的共通資訊安全評定流程,使聯邦資訊安全要求能夠協調應用,並強化風險管理及逐步達成效率化以節省管理成本。 而在上述「政府雲端資訊安全與認可評估」文件中,可分為三個重要範疇。在雲端運算安全資訊安全基準的部份,主要是以NIST Special Publication 800-535中的資訊安全控制項作為基礎;並依據資訊系統所處理、儲存與傳輸的聯邦資訊的敏感性與重要性,區分影響等級。另一部份,則著重在持續性的系統監控,主要是判定所部署的資訊安全控制,能否在不斷變動的環境中持續有效運作。最後,則是針對聯邦資訊共享架構,出示模範管理模式、方策與責任分配體系。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
日本成立供應鏈資通安全聯盟(Supply Chain Cybersecurity Consortium)日本經濟產業省(下稱經產省)於2020年6月12日發布其國內產業資通安全現況與將來對策(昨今の産業を巡るサイバーセキュリティに係る状況の認識と、今後の取組の方向性)報告,指出近期針對供應鏈資通安全弱點企業所展開的攻擊,有顯著增長趨勢。為此,該報告建議共組供應鏈的企業間,應密切共享資訊;於關鍵技術之相關資訊有外洩之虞時,應向經產省提出報告;若會對多數利害關係人產生影響,並應公開該報告。遵循該報告之建議要旨,同年11月1日在各產業主要的工商團體引領下,設立了「供應鏈資通安全聯盟(原文為サプライチェーン・サイバーセキュリティ・コンソーシアム,簡稱SC3)」,以獨立行政法人資訊處理推進機構(独立行政法人情報処理推進機構,IPA)為主管機關。其目的在於擬定與推動供應鏈資通安全之整體性策略,而經產省則以觀察員(オブザーバー)的身分加入,除支援產業界合作,亦藉此強化政府與業界就供應鏈資通安全議題之對話。 只要贊同上述經產省政策方向與聯盟方針,任何法人或個人均得參加SC3。針對產業供應鏈遭遇資安攻擊的問題,經產省與IPA已有建構「資通安全協助隊(サイバーセキュリティお助け隊)」服務制度(以下稱協助隊服務),邀集具相關專長之企業,在其他企業遭遇供應鏈資安攻擊時,協助進行事故應變處理、或擔任事故發生時之諮詢窗口。而SC3則規畫為這些參與提供協助隊服務的企業建立審查認證制度。其具體任務包含擬定認證制度的審查基準草案、以及審查機關基準草案,提供IPA來建構上述基準。依該制度取得認證的企業,將獲授權使用「資通安全協助隊」的商標。同時在業界推廣協助隊服務制度,讓取得認證的中小企業得以之為拓展其業務的優勢與宣傳材料。