ECODIR之線上爭端解決機制介紹

刊登期別
2004年12月
 

※ ECODIR之線上爭端解決機制介紹, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=774&no=67&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
歐盟資通安全局(ENISA)提出資通安全驗證標準化建議

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)(舊稱歐盟網路與資訊安全局European Union Agency for Network and Information Security)於2020年2月4日發布資通安全驗證標準化建議(Standardisation in support of the Cybersecurity Certification: Recommendations for European Standardisation in relation to the Cybersecurity Act),以因應2019/881歐盟資通安全局與資通安全驗證規則(簡稱資通安全法)(Regulation 2019/881 on ENISA and on Information and Communications Technology Cybersecurity Certification, Cybersecurity Act)所建立之資通安全驗證框架(Cybersecurity Certification Framework)。   受到全球化之影響,數位產品和服務供應鏈關係複雜,前端元件製造商難以預見其技術對終端產品的衝擊;而原廠委託製造代工(OEM)亦難知悉所有零件的製造來源。資通安全要求與驗證方案(certification scheme)的標準化,能增進供應鏈中利害關係人間之信賴,降低貿易障礙,促進單一市場下產品和服務之流通。需經標準化的範圍包括:資訊安全管理程序、產品、解決方案與服務設計、資通安全與驗證、檢測實驗室之評估、資通安全維護與運作、安全採購與轉分包程序等。   ENISA認為標準化發展組織或業界標準化機構,在歐盟資通安全之協調整合上扮演重要角色,彼此間應加強合作以避免重複訂定標準。目前有三組主要國際標準可構成資通安全評估之基礎: ISO/IEC 15408/18045–共通準則與評估方法:由ISO/IEC第1共同技術委員會(JTC1)及第27小組委員會(SC27)進行重要修訂。 IEC 62443-4-2–工業自動化與控制系統之安全第4-2部分:作為工業自動化與控制系統元件的技術安全要求。 EN 303-645–消費性物聯網之資通安全:由歐洲電信標準協會(ETSI)所建立,並與歐洲標準委員會(CEN)、歐洲電工標準化委員會(CENELEC)協議共同管理。   然而,資通訊產品、流程與服務種類繁多,實際需通過哪些標準檢驗才足以證明符合一定程度的安全性,則有賴驗證方案的規劃。為此,ENISA亦提出資通安全驗證方案之核心構成要件(core components)及建構方法論,以幫助創建歐盟境內有效的驗證方案。

德國於今年四月提出網路執行法修正案以提升平台使用者友善程度

  德國政府於今(2020)年4月提出「網路執行法」(Network Enforcement Act, NetzDG)之修法草案,將要求社群平台業者提供對使用者更為友善的申訴流程,並建立及維護「反通報程序」機制,讓使用者有機會針對其被平台刪除之貼文或評論提出反對意見,並得重新發佈於社群平台上。   德國於2018年1月起正式施行「網路執行法」,針對在德國境內擁有200萬以上使用者之社群平台業者,課予其限時處理平台上不實及不當言論之義務,並須提交其處理平台上相關言論之報告,若平台業者未能有效執行相關規定者將處以罰鍰。該法施行兩年後引發諸多批評與爭議,雖然並未如社會大眾所憂慮的對於網路言論自由造成重大侵害,亦無證據顯示社群平台業者比施行前刪除了更多的使用者評論;然該法僅要求平台業者刪除不實或不當言論,對於被誤刪之言論,卻未有相關事前預防或事後救濟之措施。為試圖改善原法規執行上之困境和兩難,德國政府遂於今年4月提出修法草案。   此次修法主要重點如下: 強化平台使用者權利 倘使用者於平台發佈之評論遭平台刪除者,使用者未來得要求平台重新檢視此決定,平台須依個案處理並向使用者釋明其決定理由,據此,平台業者須引入反通報程序之機制(counter-notification procedure)。 提升申訴管道之使用者友善性 申訴程序須更為使用者友善,即必須讓平台使用者更容易進入與使用。 簡化法院核發命令程序 未來將同步修訂聯邦電視媒體法案(Telemediengestez),以利法院核發命令,要求平台業者公布數據或揭露犯罪者身分。 加強每半年公布之透明報告資訊 平台業者未來在半年報上須特別提供有關反通報程序之申請與結果,並揭露說明用於查找、刪除平台上不實或不當內容的自動化程序;亦須在報告裡聲明是否授權獨立研究機構以科學目的之匿名訪問權限,了解與研析平台上之不實或不當言論是否有特別針對特定群體。   此修正草案係為德國政府打擊網路上右翼極端主義和仇恨犯罪的政策措施一部份,後續除了須修訂NetzDG以外,亦包含刑法、刑事訴訟法、電信法及聯邦刑事警察局法等四部法規之修訂,相關規範修訂是否有助於刑事起訴進而有效打擊平台上的不當言論,尚有待後續觀察。

歐洲議會決議通過歐盟數位服務新規章──數位服務法及數位市場法

  歐盟執委會(European Commission,下稱執委會)於2020年底提出數位服務法(Digital Services Act,DSA)以及數位市場法(Digital Market Act,DMA),而歐洲議會(European Parliament)最終於2022年7月5日以壓倒性的多數決通過上述法案,待歐盟理事會(Council of the European Union)核准通過後,法案將在公告於歐盟官方公報(EU Official Journal)後20天生效,並分別依規定時間開始適用。歐盟理事會已於2022年7月18日率先核准通過DMA,並正進行登載公報相關程序,DMA將於生效日起六個月後開始適用。以下將簡述兩法案主要內容: 1.數位服務法(DSA):主要係處理線上非法內容、不實資訊以及其他社會風險等散播問題。依DSA,數位服務提供者於其服務或交易平台應針對涉及侵害基本權之非法內容即時採取反制措施、強化平台交易者之查核並提高可追溯性、增加平台的透明度及有責性,並應禁止具誤導性及部分特定類型之定向廣告,如針對兒童的廣告或以敏感資訊為基礎的廣告等。 2.數位市場法(DMA):要求大型的主流線上平台於數位市場擔任「守門人」(gatekeeper),以確保消費者有公平的交易環境。守門人應與第三方交互使用服務,並使商業用戶得存取於其平台所生之資料,且不得:在其平台的檢索(index)與索引(crawl)相關排名中自我偏好(self-preferencing)自身產品及服務、令使用者難以卸載預先安裝之軟體或應用程式、以廣告為目的利用使用者個資。值得注意的是,執委會得對違反DMA規定之守門人處以其最高全球總營收10%的罰鍰,累犯者之罰鍰上限將提高至年度營收的20%。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP