歐洲議會決議通過歐盟數位服務新規章──數位服務法及數位市場法

  歐盟執委會(European Commission,下稱執委會)於2020年底提出數位服務法(Digital Services Act,DSA)以及數位市場法(Digital Market Act,DMA),而歐洲議會(European Parliament)最終於2022年7月5日以壓倒性的多數決通過上述法案,待歐盟理事會(Council of the European Union)核准通過後,法案將在公告於歐盟官方公報(EU Official Journal)後20天生效,並分別依規定時間開始適用。歐盟理事會已於2022年7月18日率先核准通過DMA,並正進行登載公報相關程序,DMA將於生效日起六個月後開始適用。以下將簡述兩法案主要內容:

1.數位服務法(DSA):主要係處理線上非法內容、不實資訊以及其他社會風險等散播問題。依DSA,數位服務提供者於其服務或交易平台應針對涉及侵害基本權之非法內容即時採取反制措施、強化平台交易者之查核並提高可追溯性、增加平台的透明度及有責性,並應禁止具誤導性及部分特定類型之定向廣告,如針對兒童的廣告或以敏感資訊為基礎的廣告等。

2.數位市場法(DMA):要求大型的主流線上平台於數位市場擔任「守門人」(gatekeeper),以確保消費者有公平的交易環境。守門人應與第三方交互使用服務,並使商業用戶得存取於其平台所生之資料,且不得:在其平台的檢索(index)與索引(crawl)相關排名中自我偏好(self-preferencing)自身產品及服務、令使用者難以卸載預先安裝之軟體或應用程式、以廣告為目的利用使用者個資。值得注意的是,執委會得對違反DMA規定之守門人處以其最高全球總營收10%的罰鍰,累犯者之罰鍰上限將提高至年度營收的20%。

相關連結
你可能會想參加
※ 歐洲議會決議通過歐盟數位服務新規章──數位服務法及數位市場法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8866&no=57&tp=1 (最後瀏覽日:2025/12/21)
引註此篇文章
你可能還會想看
調和國際標準!美國食藥署提出醫療器材品質系統規則修正草案

  美國食藥署(US Food and Drug Administration, FDA)於2022年2月23日提出「醫療器材品質系統規則修正草案(Medical Devices; Quality System Regulation Amendments proposed rule)」。本次修正旨在釐清現行條文與國際標準ISO13485醫療器材品質管理系統之異同,並進行適度調和。   根據修正說明,草案就現行條文與ISO13485一致之處將予保留,不一致者若屬落實授權母法「美國聯邦食品藥粧法(US Federal Food, Drug and Cosmetics Act, FD&C Act)」之必要內容,將斟酌條文用詞明確性調整後予以保留,其餘將予刪除。此外,草案也透過名詞解釋界定不同用語之定義範疇,嫁接現行條文與ISO13485落差處。對於現行條文中,與ISO13485性質相同但內容產生衝突之條文,基於依授權母法意旨,以現行條文為準。   FDA注意到,部分FD&C Act所重視的品質管理系統要求,在ISO13485中並未被重點凸顯,如記錄控管(control of records)、醫材標示(device labeling)及包裝控管(packaging controls)。本次修正特別針對此三部分保留並增補較ISO13485要求更為詳細的規範內容。在記錄控管部分,除依照ISO13485要求,記錄標的應為日期及簽署確認外,進一步依據FD&C Act規定,要求特定的服務及執行紀錄應予以紀錄,以作為醫材報告之內容。此外,也規定應詳實記錄醫療器材單一識別碼(Unique Device Identification, UDI)。在醫材標示及包裝控管部分,由於ISO13485僅指出產品應標示及包裝,但未詳述細節要求。因此,本次修正保留現行條文對於標示及包裝的細節性規定,以確保產品安全性及有效性。   本草案目前進入意見徵集期間,時間自2022年3月25日起至2022年5月24日止。後續FDA將視所徵集之意見,決定是否調整草案內容或公告施行。本次修定將使醫療器材品質系統規則與ISO13485趨於一致,預計可減輕廠商行政作業及支出負擔。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

歐盟孤兒著作指令(Directive 2012/28/EU)立法評析

歐盟科技策略新趨勢-生物經濟策略

  為引領歐盟各會員國邁向以生物發展為導向之經濟體時代,歐盟指委會(European Commission)乃於2012年2月13日通過歐盟永續生物經濟體策略計畫-Innovation for Sustainable Growth-a Bioeconomy for Europe,期待藉此引導歐盟邁想一個創新且低排放之永續發展經濟體。   隨著全球人口逐年增長,並預計於2050年邁向全球9億總人口數之關卡,但自然資源之相對有限,因此歐盟指委會認為歐盟經濟體需隨著時代變遷趨勢及早轉型,並且強化其發展永續性。為協助歐盟各會員國因應全球局勢變化,歐盟指委員進一步於其永續生物經濟體策略計畫中提出三大重點策略-1.強化創新,並發展新興科技,進而為生物經濟體做準備;2.建置並強化生物經濟體相關市場與競爭力;3.透過相關政策之研擬,加強立法者與產業間之聯結性。而除了透過前述之三大重點策略以做為發展生物經濟體之基礎外,歐盟指委會亦希望能藉由歐盟Horizon 2020計畫下之各相關配套措施,以及各項研發經費之投注,進行各項生物和綠色科技,如能源、奈米科技、和資通訊技術(ICT)等相關領域之創新研發,進而導引歐盟經濟體邁向一個全新永續新境界。   目前歐盟會員國如丹麥、芬蘭、德國、愛爾蘭、和荷蘭皆已提出相關生物經濟體策略,而國際間如加拿大、中國、美國、和南非對此議題,亦位處於發展中或是已發展階段。以生物科技為主之知識經濟發展導向乃為當前全球經濟發展趨勢,如何連結科技研發創新,進而發展永續經濟,實為一值得關注與思考之問題。

TOP