歐盟執委會呼籲採取更嚴厲的手段解決垃圾郵件問題

  歐盟執委會(European Commission)日前再次呼籲歐盟各國加強處理公眾線上隱私威脅的問題。歐盟執委會所公佈的一項報告指出,雖然近年來歐盟各國皆有相關措施,例如課予垃圾郵件發布者罰款、有期徒刑等,但各國法令仍有相當大的差異。這項報告也認為,各國相關法律在歐盟電信法的改革之下,應更為明確且一致,並加強跨國合作。

 

  歐盟執委會電信委員Viviane Reding表示,雖然歐洲的反垃圾郵件相關立法已有七年,但大部分的歐盟民眾仍受垃圾郵件影響。根據該報告,歐盟從2002年即已立法禁止發佈垃圾郵件及使用偵察軟體,但目前仍有約65%的民眾飽受垃圾郵件騷擾。

 

  歐盟執委會的報告指出 :

  • 目前幾乎所有會員國皆已設有相關網站,方便民眾取得垃圾郵件及偵查軟體的資訊或申訴。
  • 在分析來自22國的140個案例後,發現各國所課予的罰款落差懸殊。罰款最高的依序為荷蘭(100萬歐元)、義大利(57萬歐元)及西班牙(3萬歐元 );但在羅馬尼亞、愛爾蘭及拉脫維亞等國,罰款的範圍則多在數百至數千歐元之間。
  • 各級政府機關(電信主管機關、資料及消費者保護機關與執法機關等)責任劃分應更為明確,並有相互合作的機制。
  • 垃圾郵件為全球問題,除了在歐洲境內的各國合作外,與世界各國的合作亦為重要。根據調查數據,平均每六封垃圾郵件中,就有一封是由美國境內所發出,因此目前歐盟執委會正與美國協商,討論雙方執行相關保護法規的跨境合作問題。
  • 歐盟各國應分配足夠的資源予國內機關,以利蒐集證據、進行調查及起訴。 由歐盟執委會提出的歐盟電信法改革中,新增一條規定,要求違反各國國內線上隱私法的罰責必須為有效、實際且符合比例。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟執委會呼籲採取更嚴厲的手段解決垃圾郵件問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3185&no=55&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
日本通過科學技術基本法等修正案,將創新與人文科技發展納為規範對象

日本通過科學技術基本法等修正案,將創新與人文科技發展納為規範對象 資訊工業策進會科技法律研究所 2020年12月10日   日本國會於2020年6月24日通過由內閣府提出的「科學技術基本法等修正案」(科学技術基本法等の一部を改正する法律)[1],為整合修正科學技術基本法、科學技術與創新創造活性化法(科学技術・イノベーション創出の活性化に関する法律,下稱科技創新活性化法)等法律之包裹式法案。其旨在新增創新與人文科學相關科技發展目標,將之列入基本法。並因應此一立法目的調整,修正科技創新活性化法,增訂大學、研發法人出資與產業共同研究途徑,同時調整中小企業技術革新制度之補助規範。 壹、背景目的   日本內閣府轄下之整合科學技術與創新會議(総合科学技術・イノベーション会議)於2019年11月公布的「整合提振科學技術與創新目標下之科學技術基本法願景(科学技術・イノベーション創出の総合的な振興に向けた科学技術基本法等の在り方について)」報告書提出,科學技術與創新之議題高度影響人類與社會的願景,而近年聚焦之重點,則在於全球化、數位化、AI與生命科學之發展。該報告書並進一步揭示了科學技術基本法的修訂方向[2]:(1)納入「創新創造」(イノベーション創出)之概念;(2)自相互協力的觀點,併同振興自然學科與人文學科之科學技術發展;(3)允許大學與研發法人以自身收入資助具特定創新需求、或發展新創事業之外部人士或組織;(4)從鼓勵創新創造的角度,調適建構中小企業技術革新制度。   基於該報告書之決議要旨,內閣府於2020年3月10日向國會提出本次法律修正案,並於同年6月24日正式公告修正通過[3]。公告指出,AI、IoT等科學技術與創新活動的急遽發展,造就了人類社會推動願景和科技創新密不可分的現況。因之,本次修法除將人文科學項目納入基本法科學技術振興的範疇內,亦意圖落實同步推動科學技術及創新創造振興之政策構想,建構具整合性且二者並重發展的法制環境。 貳、內容摘要   本包裹式法案主要修正科學技術基本法與科技創新活性化法。首先,本次修正並列創新與科技發展為科學技術基本法規範主軸,因之,將該法更名為「科學技術與創新基本法」(科学技術・イノベーション基本法,下稱科技創新基本法),並修訂科技創新基本法立法目的為「提升科學技術水準」以及「促進創新創造」;同時,參照科技創新活性化法相關規定,明文定義創新創造為「透過科學發現或發明、開發新商品或服務、或其他具創造性的活動,催生新興價值,並使之普及,促成經濟社會大規模變化之行為」。同時,增訂科技與創新創造的振興方針主要包含:(1)考量不同領域的特性;(2)進行跨學科的整合性研究開發;(3)推動時應慮及學術研究與學術以外研究間的衡平性;(4)與國內外的各相關機關建立具靈活性且密切的合作關係;(5)確保科學技術的多元性與公正性;(6)使創新創造之振興與科學技術振興之間建立連動性;(7)有益於全體國民;(8)用於建構社會議題解決方案。此外,亦增訂研究開發法人、大學與民間企業之義務性規範,要求研究開發法人與大學應主動、且有計畫地從事人才養成、研發與成果擴散作為;而民間企業則應致力於和研發法人或大學建立合作關係,進行研發或創新創出活動。最後,基本法內原即有要求政府應定期發布「科學技術基本計畫」,作為未來一定期間內推動科技發展政策的骨幹,本次修正除將之更名為「科學技術與創新基本計畫」(科学技術・イノベーション基本計画),亦額外要求基本計畫應擬定培養研究與新創事業所需人才的施政方針。   另一方面,配合科技創新基本法修訂與政策方向,科技創新活性化法的修正重點則為:(1)新增本法適用範圍,擴及「僅與人文科學相關的科學技術」;(2)明文創設大學或研究開發法人得與民間企業合作進行共同研究的機制,允許大學或研究開發法人出資設立「成果活用等支援法人」,並給予人力與技術支援。其可將大學、研發法人持有之專利授權給企業、與企業共同進行研究或委外研究等,藉以推動研發成果產業化運用,透過計畫的形式,和企業間建立合作關係;(3)為鼓勵與促進中小企業與個人從事新興研發,調整設立「特定新技術補助金」制度,用以補助上述研發行為;每年度內閣府則需與各主管機關協議,就特定新技術補助金的內容與發放目的作成年度方針,經內閣決議後公開。同時,在特定新技術補助金下設「指定補助金」之類型,由國家針對特定待解決之政策或社會議題,設定研發主題,透過指定補助金的發放,鼓勵中小企業參與該些特定主題之研發。 參、簡析   本次科技創新基本法的修正,為日本國內的科技發展方向,作出法律層級的政策性宣示。除將人文學科相關的科技研發正式納入基本法的規範對象內,最主要的意義,在於使創新與科技發展同列為基本法的核心目的之一,顯示其科研政策下,創新與科技的推展實存在密不可分且相輔相成的關係,而有必要整合規劃。而科技創新活性化法一方面拓展大學、研發法人等學術性或公部門色彩較為強烈的機構與民間企業合作研發、成果產業化運用的途徑;另一方面,則延續近期相關政策文件強調創新價值應自社會需求中發掘的構想[4],設置了激勵中小企業投入社會議題解決方案相關研發的補助金類型。   我國立法體例上,同樣存在科學技術基本法的設計,用以從法制層級確立國內科技發展的基礎政策方向。於COVID-19疫情期間,技術研發的創新落地應用,亦已成為我國產出各式疫情應對方案、以及後疫情時期重要政策的關鍵之一。則如何延續我國對抗COVID-19過程中所掌握的協作與成果運用經驗,或可借鏡日本的作法,使創新能量能透過研發補助機制的優化,充分銜接政策與社會需求。 [1]〈科学技術基本法等の一部を改正する法律の公布について〉,日本內閣府,https://www8.cao.go.jp/cstp/cst/kihonhou/kaisei_tuuchi.pdf (最後瀏覽日:2020/12/08)。 [2]〈「科学技術・イノベーション創出の総合的な振興に向けた科学技術基本法等の在り方について」(概要)〉,日本內閣府,https://www8.cao.go.jp/cstp/tyousakai/seidokadai/seidogaiyo.pdf(最後瀏覽日:2020/12/08)。 [3]〈第201回国会(常会)議案情報〉,日本參議院,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/201/meisai/m201080201047.htm(最後瀏覽日:2020/12/08)。 [4]〈中間とりまとめ2020未来ニーズから価値を創造するイノベーション創出に向けて〉,經濟產業省,https://www.meti.go.jp/press/2020/05/20200529009/20200529009-2.pdf(最後瀏覽日:2020/12/10)。

美國眾議院發布反壟斷五大法案,恢復數位市場競爭並防堵科技平台壟斷

  美國眾議院反壟斷委員會於2021年6月11日宣布五大反壟斷立法議案,目標是透過立法提升消費者、勞工和中小企業競爭空間,防止大型科技平台壟斷數位市場。2019年美國國會反壟斷委員會調查互聯網巨頭Amazon、Google、Facebook、Apple(GAFA)涉嫌濫用市場支配地位進行壟斷、抑制競爭、侵害用戶隱私、破壞新聞出版多元化。2020年10月發布《數位市場競爭調查》(Investigation of Competition In Digital Markets)強調恢復數位經濟市場競爭力重要性。2021年美國眾議院隨即提出五大反壟斷改革法案具體落實政策方向。 終止平台壟斷法案(Ending Platform Monopolies Act) 防止占主導地位的平台利用其對多個業務的控制能力,由董事或受託人持有公司25%以上的股票、盈利或資產,或以其他方式掌握實質控制權,要求用戶使用其平台購買產品或服務進而取得優勢地位。 美國選擇與創新線上法案(American Choice and Innovation Online Act) 禁止平台的歧視行為,包括使自家產品、服務及業務在平台上享有對手沒有的競爭優勢,禁止自我偏好或歧視其他同類業者之行為。 平台競爭與機會法案(Platform Competition and Opportunity Act) 禁止具獨占優勢平台藉由收購其他具競爭力對手,以擴大或鞏固線上平台市場力量。 透過啟動服務交換強化相容性和競爭力法案(Augmenting Compatibility and Competition by Enabling Service Switching Act) 透過啟動服務交換,滿足互操作性和資料可攜性,降低企業和消費者進入壁壘與轉換成本,使資料更容易移動到其他平台。 併購申報費現代化法案(Merger Filing Fee Modernization Act) 提高企業向政府申請併購案之審議費用,例如超過50億美金以上併購案審議費用從美金28萬提升至225萬,確保美國司法部和聯邦貿易委員會執行反壟斷資源。

美國商務部產業安全局公布「確保聯網車輛資通訊技術及服務供應鏈安全」法規預告

美國商務部產業安全局(Bureau of Industry and Security, BIS)於2024年9月23日公布「確保聯網車輛資通訊技術及服務供應鏈安全」(Securing the Information and Communications Technology and Services Supply Chain: Connected Vehicles)法規預告(Notice of Proposed Rulemaking, NPRM),旨在透過進口管制措施,保護美國聯網車供應鏈及使用安全,避免國家受到境外敵對勢力的威脅。 相較於BIS於2024年3月1日公告之法規制定預告(Advanced Notice of Proposed Rulemaking, ANPRM)意見徵詢中的討論,本次法規預告明確指出受進口管制的國家為中國及俄國,並將聯網車輛資通訊技術及服務之定義,限縮於車載資通訊系統、自動駕駛系統及衛星或蜂巢式通訊系統,排除資訊洩漏風險較小的車載操作系統、駕駛輔助系統及電池管理系統。法規預告中定義三種禁止交易型態:(1)禁止進口商將任何由中國或俄國擁有、控制或指揮的組織(下稱「中俄組織」)設計、開發、生產或供應(下稱「提供」)的車輛互聯系統(vehicle connectivity system, VCS)硬體進口至美國;(2)禁止聯網車製造商於美國進口或銷售含有中俄組織所提供的軟體之聯網整車;(3)禁止受中俄擁有、控制或指揮的製造商於美國銷售此類整車。 本次法規預告中亦提出兩種例外授權的制度:在特定條件下,例如年產量少於1000輛車、每年行駛公共道路少於30天等,廠商無須事前通知BIS,即可進行交易,然而須保存相關合規證明文件;不符前述一般授權資格者,可申請特殊授權,根據國安風險進行個案審查。其審查重點包含外國干預、資料洩漏、遠端控制潛力等風險。此外,為提升供應鏈透明度並檢查合規性,BIS預計要求VCS硬體進口商及聯網車製造商,每年針對涉及外國利益的交易,提交符合性聲明,並附軟硬體物料清單(Bill of Materials, BOM)證明。BIS針對此規範是否有效且必要進行意見徵詢,值得我國持續關注。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP