歐盟最高法院宣佈2006歐盟資料保留指令無效

  歐盟最高法院認為,2006歐盟資料保留指令(EU data retention directive)授權各會員國以法律要求電信業或網際網路服務供應商保留人民通信及網路活動數據資料長達兩年、並允許提供給執法或安全服務部門(police and security service)的規定,係屬重大侵害隱私生活及個人資料保護兩大基本人權,因此宣告該規定無效。該判決起因於澳洲及愛爾蘭民間團體向歐盟法院提出申訴,目前28名歐盟會員國正共同起草新的資料保護法案。

  2006歐盟資料保留指令允許電信公司保留個人的ID、通信時間、通信地點及通信頻率。歐盟最高法院判決中表示,雖然肯定該規定對於偵查、追溯重大犯罪有其必要性及正當性,但對保留期間(6個月至2年)欠缺明確的保留標準,而過度侵犯個人隱私生活及未提供適當的個人資料保護措施,並不符合比例原則。

  針對此一歐盟最高法院判決的宣示意涵,英國政府發言人表示通信數據的保留對執法部門偵查犯罪及確保國家安全是絕對必要的,若電信公司無法保留並提供給執法部門,很可能危及國安。

  無論如何,歐盟最高法院的決定,重新宣告了人民隱私權及個人資料的保護不容國家任意侵犯,國家沒有權力任意的、不加區別的蒐集、保留一般人民的通信資料和網路行動,這是無視且扭曲基本人權的行為。該則判決為歐盟各成員國的資料保留法制開啟了新的里程碑。

相關連結
※ 歐盟最高法院宣佈2006歐盟資料保留指令無效, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6546&no=57&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
資通安全法律案例宣導彙編 第1輯

歐盟2019電子政府基準報告

  歐盟執委會(European Commission, EC)於2019年10月18日發布電子政府基準報告(eGovernment Benchmark 2019: trust in government is increasingly important for people)。電子政府基準是歐盟的年度檢測工具,用以確認公部門中資通訊技術使用狀況,亦是歐盟2016-2020年的重點政策之一:2016年4月,歐盟執委會發布「歐盟e政府四年行動計畫」(EU eGovernment Action Plan 2016-2020),歐盟應致力落實「公共行政現代化」、「跨境數位行動服務」和「加強公部門與公民和企業的數位互動」等三面向。電子政府基準報告即因應此一政策方向而生。   電子政府基準的評測指標有四:以使用者為中心(User centricity)、透明度(Transparency)、跨境移動(Cross-border mobility)、其他關鍵促成因素(Key enablers)。報告中評估2019年總體表現最佳的國家是馬爾他、奧地利等;立陶宛和芬蘭等國則為其次;表現低於平均者則多為東南歐國家。報告中亦提到,現階段公民已十分容易在機關官網上取得所需資訊,但相較於提供給一般公民的服務,機關官網對企業提供之服務通常更加完整及清楚。另外,在推行各項電子政府措施時,公民對政府的信任益發重要。唯有公民信任該機關,包含對機關安全在線服務、個人資料透明度、公共網路安全等的信賴,機關數位化改革才能常態運作。因此,電子政府的發展是建立在人們信任相關數位服務,並與政府交流時更容易知悉並利用該服務。   再觀我國電子化政府之發展,自民國87年至今已進入第五階段。初期致力建設政府骨幹網路和電子認證、90年代持續深化及擴大政府網路應用,並推動10大旗艦計畫實現網路政府主動、分眾、持續及紮根之服務。101年後建構電子化政府之設備、網路和應用服務,發展資訊服務系統整合、全程服務及跨部門協調。近期分別有「第五階段電子化政府計畫-數位政府」和「服務型政府推動計畫」,以資料驅動、公私協力、以民為本之核心理念,透過巨量資料、開放資料和服務個人化等工具,發展跨機關一站式整合服務及打造多元協作環境,落實數位政府服務。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

日本修正《氫能基本戰略》以實現氫能社會

日本於2023年6月6日召開有關「再生能源、氫能等相關」內閣會議,時隔6年修正《氫能基本戰略》(水素基本戦略),其主要以「水電解裝置」、「燃料電池」等9種技術作為戰略領域,預計15年間透過官民投資15兆日元支援氫能相關企業,希冀盡速實現氫能社會。 日本早於2017年即提出氫能基本戰略,由於氫氣在使用過程中不會產生溫室氣體或其他污染物質,被認為是可以取代傳統化石燃料的潔淨能源,欲以官民共同合作,無論在日常生活、生產製造等活動下,都能透過氫能發電方式,達成氫能社會,故推出降低氫能成本、導入氫能用量的政策,並以2030年為目標,將氫能的用量設定為30萬噸、同時將氫能成本降為30日元/Nm3(以往價格為100日元/Nm3),使其成本與汽油和液化天然氣成本相當。為配合2021年《綠色成長戰略》,日本再次擴充目標,透過活用綠色創新基金,集中支援日本企業之水電解裝置和其他科技裝置,預計在2030年的氫能最大供給量達每年300萬噸、2050年可達2000萬噸。 然而隨著各國紛紛提出脫碳政策和投資計畫,再加上俄烏戰爭之影響,全球能源供需結構發生巨大變化,例如:德國成立氫氣專案(H2 Global Foundation)投入9億歐元,以市場拍賣及政府補貼成本的方式推動氫能、美國則以《降低通膨法》(The Inflation Reduction Act),針對氫能給予稅率上優惠措施等,在氫能領域進行大量投資,故為因應國際競爭,日本重新再審視國內氫能發展,並修正《氫能基本戰略》,除提出「氫能產業戰略」及「氫能安全保障戰略」外,本次主要修正之重要措施摘要如下: 1.維持2030年、2050年氫能最大供給量之設定,但新增2040年時提出氫能的最大供給量目標為1200萬噸。 2.由於水電解裝置在製造綠氫時不可缺,爰設定相關企業於2030年前導入15GW左右的水電解裝置,同時確立日本將以氫能製造為基礎之政策。 3.鑒於氫能科技尚不純熟、氫能價格前景不確定性高,在氫能供應鏈的建構上有較大風險,故透過保險制度分擔風險,以提高經營者、金融機構投資氫能之意願。 4.藉由氫能結合渦輪、運輸(汽車、船舶)、煉鐵化學等其他領域,期以氫氣發電渦輪、FC卡車(使用氫氣燃料電池Fuel Cell之卡車)、氫還原製鐵為中心,强化國際競爭力,創造氫能需求。 5.預計10年間,以產業規模需要在都市圈建設3處「大規模」氫能供給基礎設施;另依產業特性預計於具相當需求之地區,建設5處「中等規模」基礎設施。

TOP