西班牙隱私保護專責機構對Google發動刑事制裁程序

  西班牙隱私保護專責機構「資料保護專員」(Data Protection Commissioner;一般多以其西班牙文縮寫AEPD簡稱之 ),針對Google街景服務(Street View)攝影過程中不當蒐集網路用戶資訊一事,於2010年10月18日對Google發動刑事制裁程序(criminal sanction procedure)。AEPD於其網站上發表聲明,其已經掌握Google涉及五項犯罪活動的證據,其中包括蒐集Wi-Fi用戶資訊並將相關資料傳送回美國等,AEPD已將相關證據資料提交馬德里法院。

 

  Google街景服務提供全球諸多地區的地理圖片,但此一服務也引發人們對於侵犯個人隱私之擔憂。儘管Google先前已多次針對街景攝影車攫取Wi-Fi用戶未經加密訊息之行為進行道歉,但仍有諸多國家對於Google是否違反內國隱私保護法規展開調查。

 

  此次AEPD採取法律行動前,事實上西班牙網路用戶權利協會已就相同問題Google提起訴訟,而西班牙法院亦於今年8月展開調查。AEPD對外表示,一旦法院認定Google犯罪情事屬實,各個犯罪行為將可處以6萬至60萬歐元之罰金。無獨有偶,加拿大政府亦於10月19日認定Google收集Wi-Fi用戶資料之舉動,屬於違法行為。

相關連結
※ 西班牙隱私保護專責機構對Google發動刑事制裁程序, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5318&no=57&tp=1 (最後瀏覽日:2026/04/03)
引註此篇文章
你可能還會想看
新加坡八月起發行生物認證辨識電子護照

  新加坡將從八月起發行擁有生物認證辨識晶片和更多防偽功能的電子護照。為確保新加坡人使用新護照在國外不會遇到困難,有必要進行周全的測試,從使用者的實際經驗中查知不易察覺的問題,確保新護照不會對出國者在各國出入境時造成不便。因此,新加坡移民與關卡局將從 四月二十九日 開始,讓新加坡官員和新加坡航空公司空服員率先試用。第一階段測試完成後,移民與關卡局將全面推廣電子護照,所有在今年八月以後發出的護照,都將是電子護照,取代現有的傳統護照。   移民與關卡局也將與夥伴國對新加坡電子護照進行測試,以便在新加坡推出電子護照時,外國的入境處判讀儀器能判讀電子護照內的資料。事實上早在今年一月,新加坡即與美國、澳洲和紐西蘭三國聯合展開三個月的電子護照測試,測試將在 五月十五日 結束。如果測試進展順利,相關國家的機場都將安裝可以判讀電子護照的儀器,蓋唯有各國都安裝相關系統配合運作,電子護照才能發揮功效。目前,美國已經確認新加坡電子護照符合美國免簽證入境第二級認證,這意味著美國國土安全部測試證實新加坡電子護照與美國的護照判讀儀器相容。此外,新加坡移民與關卡局也將持續積極參與國際民航組織會議,確保新加坡了解國際電子護照的最新發展與概況,以取得同步進展。

再工業化!?美國推動先進製造知基礎法制政策研析

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

談業界控管奈米風險之自主管理機制-以杜邦公司奈米風險架構為中心

TOP