加拿大可能推動更嚴格的身份盜用法律

  加拿大的身份盜用問題嚴重,根據Canadian Council of Better Business Bureaus估計,每年因身份盜用所造成的經濟整體損失超過二十億加幣。此外,去年十一月Ipsos-Reid的調查顯示,73%的加拿大人擔心身份盜用問題,且28%的加拿大人曾親身遭遇、或是有周遭認識之人因此受害。

 

  然而,與身份盜用猖獗的現況相較,加拿大個人資料和隱私保護法制一直飽受批評,被認為無法遏止此一問題擴散。加拿大資料安全之基礎規範為「個人資訊保護與電子文件法」(Personal Information Protection and Electronic Documents Act),但以具有重要嚇阻效果的刑法而言,卻只處罰濫用他人身份資訊,如身份詐欺、冒用、偽造等行為,但對於初步蒐集、處理和盜賣身份資訊之行為,卻難以透過現行刑法規範。

 

  身份盜用可能造成的影響層面相當廣泛,例如個人的財務和信用損失、商業或財金產業的損失,甚至是整體納稅人的傷害。

 

  職是之故,加拿大勞工部、魁北克經濟發展部等政府首長乃宣布,聯邦政府有意推動刑法之修改,使檢警對於先期身份盜用(或違法資料蒐集)之行為,有更大的調查和追訴空間,並希望此一政策方向能獲得國會的後續支持。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 加拿大可能推動更嚴格的身份盜用法律, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2389&no=67&tp=1 (最後瀏覽日:2026/04/09)
引註此篇文章
你可能還會想看
微軟與中興通訊(ZTE)簽定Android和Chrome專利授權

  微軟(Microsoft)與大陸地區的中興通訊(ZTE)簽定Android和Chrome裝置的專利授權協議,雙方財務明細未揭露。   該協議,給予中興通訊授權範圍涵蓋微軟專利組合中可供用於執行Google的Android 和 Chrome 作業系統的廣泛內容,包括智慧型手機、平板裝置、電腦及其他裝置設備等。   除中興通訊加入外,其他包含三星(Samsung)、宏達電(HTC)及宏碁(Acer),都已經與微軟簽定專利授權協議,上周以代工製造為主的鴻海科技集團亦簽定類似的協議,並支付權利金,取得微軟專利組合。   微軟智慧財產權事業群全球副總裁暨副法務長 Horacio Gutierrez在微軟部落格公開表示,微軟的Android和 Chrome授權協議,主要是要幫助裝置供應商避免未來遭受到與微軟訴訟事件。到目前為止,幾乎已經與所有全球最大供應Android智慧型手機的供應商及製造商達成授權協議。Horacio Gutierrez另補充“ 事實上,在微軟協議下已涵蓋了80%以上在美國銷售的Android智慧型手機及大多數在全球銷售的Android手機“。   目前尚有兩家企業仍未達成協議,分別為全球第三大智慧型手機供應商大陸公司華為(Huawei),及Google旗下的Motorola Mobility。

美國聯邦巡迴上訴法院判決 FCC無權要求網路中立性

  2010年4月6日美國聯邦哥倫比亞巡迴上訴法院於Comcast v. FCC一案中,判決美國聯邦通訊傳播委員會(FCC)要求網路服務供應商(ISP )對所有形式資料傳輸一視同仁的「網路中立性」要求係逾越權限,有違法律保留原則。此裁判將為美國大型網路內容提供業者(ICP)的經營模式及網路使用者上網習慣投下震撼彈。   網路中立性(Net Neutrality)係指同一ISP應公平地處理所有網路服務,不得因頻寬需求而有差別待遇。查原因案件乃業者Comcast禁止某些用戶透過網路點對點(peer-to-peer)的方式,傳輸大型影音檔案,其認為用戶這種做法會佔用過多頻寬,拖累其他用戶的網路速度;FCC則認為Comcast此舉違反了網路中立性。   在判決書中,哥倫比亞巡迴上訴法院援引判決先例(stare decisis),認為立法者課予FCC必須對全美人民提供一「公平、有效率、公正分配」的廣電服務。惟本案FCC擅以立法者未明確授權的網路中立性作為規制準則,逾越其管制權限而違法。   FCC發言人Jen Howard表示:「法院沒有道理否定保障網路自由與開放的重要性,也不該阻止其他可促成這個重要目的的方法。」此判決對諸多大力提倡網路中立性的大型ICP業者,無疑是一大打擊;ISP將來也可能對消費者依照資料傳輸流量分級收費(即tiered service),形成新的網路服務發展型態。FCC目前正極力爭取立法者通過「網路中立性法案」尋求管制的合法性,後續發展值得注意。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP