加拿大反垃圾郵件法的施行可能衝擊電子商務產業

  加拿大政府於2010年12月通過反垃圾郵件法,並將於2011年底前生效,加國訂定此法律目的在於藉由遏止垃圾郵件、身分盜用、網路釣魚、間諜軟體、病毒、殭屍網路及誤導性的商業表示等行為,建立新的規範機制與罰則,解決此類線上威脅,從而促進電子商務發展。

 

  目前引發兩派看法,自電子商務角度以觀,企業經營者倚賴電子郵件與消費者互動,而新法要求企業經營者在發商業行銷郵件前須先獲得同意,且必須有明確的取消訂閱機制供收信人選擇。雖在交易過程中獲得的電子郵件地址,將被視為已默示同意發送信息,但只能於最後一次購買日期後兩年內發信,如此企業必須另外建立符合法令規定的郵件清單並加以管理,對企業經營者而言著實是一種負擔。且因為新法定有罰則,若違反法令,加拿大廣播及電訊管理委員會(Canadian Radio-television and Telecommunications Commission, CRTC)有權對個人處以最高100萬元的行政罰款,對公司最高罰款可達1,000萬元,如此使因業務需要而發送大量電子郵件的公司,包括電信公司、銀行等感到惶惶不安。同時另一方面有論者質疑此法律的執行成效,因大部分的垃圾郵件非自加拿大當地所發出,要如何達到減少並遏止前述線上威脅,效果存疑。

 

  另一派見解則認為,在此法案通過前,加拿大是八大工業國中,唯一没有具體的垃圾郵件管理辦法的國家。雖然此法影響電子商務產業,然而知名企業也可能會濫發商業郵件,且縱使發送郵件公司並非在加拿大本地發送垃圾郵件,其未必在加拿大無分支機構,垃圾郵件確實對加拿大人民造成損害,因此制定並施行反垃圾郵件法是必要的。

相關連結
※ 加拿大反垃圾郵件法的施行可能衝擊電子商務產業, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5539&no=67&tp=1 (最後瀏覽日:2026/05/16)
引註此篇文章
你可能還會想看
英國OFCOM計畫推出適用於不同內容之分級識別標誌

  英國財政大臣Gordon Brown在倫敦的一場演講中指出,OFCOM現正研擬制定一套適用於各種不同媒介之內容的分級識別標誌。未來不論電視節目、廣播節目、電影、電腦遊戲或者網站內容都可適用該分級識別系統,以幫助父母為家中的孩童過濾不適當的內容,保護孩童在數位化的時代仍可以遠離不適合的媒體內容。   在該場演講中,Gordon Brown 表示,身處在數位時代,父母越來越難掌握孩童所接觸的內容是否適當,但是在無法扭轉科技的進步前提下,應當善加利用新科技並使父母得以透過各種新科技繼續保有為孩童選擇適當的內容之控制權。   OFCOM的發言人僅透露該套分級識別系統不僅適用於所有種類的媒體內容,而且將以文字方式描述各種內容,例如特定內容之裸露程度為何,以作為視聽大眾決定是否接收該內容前的參考。另外,不同於現行的電影分級制度乃是以年齡作為不同等級內容的分級標準,未來OFCOM所推出的分級識別系統將無關乎年齡。不過OFCOM亦表示該分級識別系統的詳細內容目前尚未決定,仍在討論階段。   除了制定一套適用於所有內容的分級識別系統之外,OFCOM未來亦將透過電視廣告以及要求ISP業者配合向消費者宣導各種過濾軟體,以便消費者得以過濾網路上之色情猥褻或暴力之內容。

歐盟電子通訊市場之事前管制與界定

歐美貿易與技術理事會發表第6次聯合聲明,確保雙方於新興技術及數位環境之領導地位

歐美貿易與技術理事會(EU-U.S. Trade and Technology Council,TTC) 2024年4月4日至5日在比利時魯汶舉行第6屆部長會議,依據會後聯合聲明,雙方針對數位轉型所帶來的機遇與挑戰,同意在新興技術和數位環境等面向促進雙邊貿易和投資、進行經濟安全合作,並捍衛人權價值。未來雙方將針對AI、半導體、量子技術和6G無線通訊系統等制定互通機制及標準,簡述如下: (1) AI技術:採取「風險基礎方法」(risk-based approach)實施「可信任人工智慧和風險管理聯合路徑圖(Joint Roadmap for Trustworthy AI and Risk Management),提高透明度以降低公民及社會使用AI的風險;更新關鍵AI術語清單(a list of key AI terms),減少雙方於概念認知上的誤差;承諾建立對話機制,以深化雙邊合作。 (2) 半導體:為促進半導體供應鏈韌性(resilience)與協調(coordination),將延長實施「供應鏈早期預警機制」(joint early warning mechanism)及「透明機制」(transparency mechanism)兩項行政安排,共同解決半導體產業市場扭曲、供應鏈過度依賴特定國家等挑戰。 (3) 量子技術:雙方將成立量子工作小組(Quantum Task Force),以制定統一量子技術標準,加速技術研發。 (4) 6G技術:雙方通過「6G願景」(6G vision),並對於未來研究合作簽署行政安排(administration arrangement),建立6G技術開發共同原則。 歐美雙方期望透過上述作法,促進半導體和關鍵技術研發和供應鏈多元化,以確保經濟安全及落實數位轉型,確保歐美於新興技術和數位環境之領導地位。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP