西班牙隱私保護專責機構對Google發動刑事制裁程序

  西班牙隱私保護專責機構「資料保護專員」(Data Protection Commissioner;一般多以其西班牙文縮寫AEPD簡稱之 ),針對Google街景服務(Street View)攝影過程中不當蒐集網路用戶資訊一事,於2010年10月18日對Google發動刑事制裁程序(criminal sanction procedure)。AEPD於其網站上發表聲明,其已經掌握Google涉及五項犯罪活動的證據,其中包括蒐集Wi-Fi用戶資訊並將相關資料傳送回美國等,AEPD已將相關證據資料提交馬德里法院。

 

  Google街景服務提供全球諸多地區的地理圖片,但此一服務也引發人們對於侵犯個人隱私之擔憂。儘管Google先前已多次針對街景攝影車攫取Wi-Fi用戶未經加密訊息之行為進行道歉,但仍有諸多國家對於Google是否違反內國隱私保護法規展開調查。

 

  此次AEPD採取法律行動前,事實上西班牙網路用戶權利協會已就相同問題Google提起訴訟,而西班牙法院亦於今年8月展開調查。AEPD對外表示,一旦法院認定Google犯罪情事屬實,各個犯罪行為將可處以6萬至60萬歐元之罰金。無獨有偶,加拿大政府亦於10月19日認定Google收集Wi-Fi用戶資料之舉動,屬於違法行為。

相關連結
※ 西班牙隱私保護專責機構對Google發動刑事制裁程序, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5318&no=64&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
美國最高法院肯定電玩同樣受到憲法第一修正案言論自由之保護

  美國最高法院日前針對Brown v. EMA & ESA(即之前的Schwartzenegger v. EMA)一案作出決定,確認加州政府於2005年制定的一項與禁止販賣暴力電玩(violent video games)有關的法律,係違反聯邦憲法第一修正案而無效。   該加州法律係在阿諾史瓦辛格(Arnold Alois Schwarzenegger)擔任加州州長時通過。根據該法規定,禁止販售或出租暴力電玩給未滿18歲的未成年人,且要求暴力電玩應在包裝盒上加註除現行ESRB分級標誌以外的特別標誌,故有侵害憲法第一修正案所保障的言論自由之虞。本案第一審、第二審法院均認定加州「禁止暴力電玩」法案係屬違憲。   而最高法院日前於6月27日以7比2的票數判決,肯定下級審的見解。最高法院認為,電玩(video games)係透過角色、對話、情節和音樂等媒體,傳達其所欲表達的概念,就如同其他呈現言論的方式(如書本、戲劇、電影),皆應受到憲法言論表達自由原則之保護。   因此,對同樣受到憲法保障的遊戲內容表達,只有在有重大(值得保護)的公益須維護時,才能對其加以限制;同時,限制手段亦須通過最嚴格的審查標準(stringent strict scrutiny test)。最高法院認為,本案中加州政府並無法證明有重大(值得保護)的公益存在,且以法律禁止販賣的手段也無法通過審查標準。   如同美國娛樂軟體協會(ESA)CEO Michael D. Gallagher所說,政府不應採取立法禁止的方式,限制遊戲內容的表達自由;反之,美國電玩產業一直以來都遵守一套自願性的分級制度(Entertainment Software Rating Board rating system),藉以提供消費者有關遊戲內容的資訊。這套分級制度已足以協助家長從包裝盒上辨認出遊戲內容,確保未成年人不接觸不適宜的遊戲。   判決出爐後,產業界紛紛表示這是對遊戲產業的一大勝利。本案也證明,即使面臨日新月異科技發展的挑戰,憲法所保障的言論自由表達原則,同樣適用在新興科技的表現媒介。

美國國家製造創新網絡2016年度報告

  依2014年復甦美國製造與創新法(Revitalize American Manufacturing and Innovation (RAMI) Act of 2014),美國國家製造創新網絡計畫於2016年2月公布年度報告(Annual Report)。國家製造創新網絡計畫的目標是處理發生於執行面的、介於初期基礎研究與技術布建之間的製造技術轉型(manufacturing related technology transition)挑戰。   國家製造創新網絡計畫的關鍵核心之一,是連結創新與製造,而「研發機構」(Institute)在這當中扮演最為關鍵的角色。此所稱之研發機構,係指2013年「國家製造創新網絡先期規劃」(NNMI-PD)以及2014年復甦美國製造與創新法(RAMI Act of 2014)第278s條(c)項所界定之「製造創新中心」(center for manufacturing innovation)——其採公私合營制(public-private partnership),其成員可包括各該業界之業者與學研機構,以及商務部長認屬適當之產業聯盟(industry-led consortia)、技職教育學校、聯邦政府所屬實驗室、以及非營利機構等。「研發機構」將以上之利害關係各方匯聚形成一個創新生態系(innovation ecosystem),以共同因應高風險之製造業挑戰並協助製造業者維持並提升產能與競爭力。   我國於民國105年7月由行政院核定通過之「智慧機械產業推動方案」,亦規劃透過「智機產業化」與「產業智機化」,建構智慧機械產業生態體系,整合產學研能量,並深化智慧機械自主技術中長期布局與產品創新。

日本內閣通過2015年「世界最先進IT國家創造宣言」修訂版

  日本內閣設置之「IT總合戰略總部」於2015年6月30日通過「世界最先進IT國家創造宣言(世界最先端IT国家創造宣言,下稱該宣言)」之修訂版,此次為2014後的第二次修正。該宣言於2013年6月14日首次公布,作為安倍政府第3支箭成長戰略之一環,為國家層級的IT政策目標,宣言中並揭示,欲促使日本五年內成為世界最高水準的IT技術國家。   本次之重要修正內容摘要如下: (一) 基本理念 1. 以日本之再生為基礎活用IT技術   以成長戰略為根據,將IT技術做為日本再生之動能;組織構成方面,則以政府作為資訊總監(Chief Information Officer, CIO)為中心,打破省廳之間之縱向關係,以「橫向串聯」的方式來推動IT政策。 2. 以全球為範圍建構日本的IT利用及解決範本   因應IT技術之進展、資料流通量之增大、IoT、AI時代之進展為背景,並在確保資訊安全為前提下活用IT技術,建構全球獨一無二「問題解決導向之IT利用範本」,實現人民有感之目標。 3. 活用IT技術以解決問題為導向建構四大支柱   以活用IT技術為特色,並以誘發各個領域之創新性為觀點,以四大支柱為中心,建立一個活用IT技術的社會,建構必要的政策措施。 (二) 四大支柱 1. 朝未來成長之社會:深化IT活用技術   整備IT技術之活用環境,未來擬立新法加促進及加速IT技術之活用;現行則持續的修正個人資料保護法,排除影響IT活用技術的法規障礙;並繼續推動向民間開放公共資料(open data)之工作。 2. 充滿活力之社會:充分利用IT技術之居民、工作及街道   整備資料共有之基礎設施,並分析及活用RESAS(地域経済分析システム,Regional Economy Society Analyzing System)、SNS等巨量資料。 3. 安心安全的活用IT技術,實現人民有感之社會   ■適當地提供區域醫療、健康照護等服務,實現健康長壽之社會,於全國展開醫療資訊之聯合網路、活用醫療、健康資訊等資料,以預防重症、增進健康,目標於2020年之前人均壽命成長一歲以上。   ■用IT技術促進日本農業,以及周邊產業之升級等,並推動AI農業、以IT化方式保護鳥獸等技術。   ■實現世界最安全且經濟之道路交通社會,預計於2020年代後期,開始於日本全面性的適用無人駕駛系統。 4. 活用IT技術,創建集合式之公共服務社會持續推動個人號碼制度,擴大及檢討其利用之範圍,實現一卡化社會。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP