德國科隆行政法院判決Google公司所提供之Gmail電子郵件服務為德國電信法「電信服務」定義下之規範對象

  德國科隆行政法院於2015年11月11日判決美商Google公司所提供之Gmail電子郵件服務為德國電信法「電信服務」定義下之規範對象,依據德國電信法第3條24之規定。因此,以該服務之提供者Google公司得依據德國電信法第6條第1項履行其「通報義務」。繼德國聯邦網路局(Bundesnetzagentur)於2012年7月透過正式通知美商Google Inc.需履行德國電信法第6條第1項之「通報義務」。

  Google公司指出Gmail不是電信服務,因為Google本身所提供之服務目的不是在於電子信號的傳送。

  德國聯邦網路局則指出,因為Google公司的伺服器,以專業術語來說,依據OSI模型(開放式系統互聯通訊參考模型,Open System Interconnection Reference Model, ISO/IEC 7498-1)定義,係有信號傳送服務提供的事實。Google透過獨特的傳送技術傳送數據信號,且針對其所傳輸的有所管控能力。此外,亦應更宏觀的來以電信法立法的宗旨與角度去審視是否此服務應受規範。德國聯邦網路局並不企圖於規範網路世界的一切。但是,像是Gmail或其他OTT服務業者應需要如同傳統電信服務業者般的,重視並履行其資料保護(Datenschutz)、消費者保護(Kundenschutz)、資訊安全(Sicherheit)上的義務。

  德國聯邦科隆行政法院判決支持德國聯邦網路局的見解,Google公司因其所提供之Gmail服務應履行德國電信法之通報義務。在定義上是否電信服務,並不是完全以技術面去做認知,更為重要的在於電信法的立法價值初衷。德國聯邦科隆法院已准許透過飛躍上訴(Sprungrevision)的方式將該案送於德國聯邦最高行政法院(Bundesverwaltungsgericht),此案將可能有最高行政法院的判決。若Gmail被認定為係屬「電信服務」,此判決將會針對全德國的OTT服務規範有所影響,需被德國聯邦網路局所監管。

相關連結
※ 德國科隆行政法院判決Google公司所提供之Gmail電子郵件服務為德國電信法「電信服務」定義下之規範對象, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7149&no=57&tp=1 (最後瀏覽日:2026/05/03)
引註此篇文章
你可能還會想看
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

歐盟第七期研發綱要計畫定案,有條件支持幹細胞研究

  歐盟日前正在加緊腳步為第七期研發綱要計畫( R&D Framework 2007-2013 )之規劃定案,與此同時,歐盟研發經費究竟應該如何挹注也成為討論焦點。歐洲議會產業研究暨能源委員會( Industry, Research and Energy (ITRE) Committee )最近通過第七期研發綱要計畫的預算,預算額度雖然從原本規劃的 72 億歐元減至約 54.5 億歐元左右,但相較於第七期研發綱要計畫,該經費仍成長許多。   此外 ITRE 也決定,基於倫理考量,以下的科技研究領域將無法獲得歐盟補助:複製人、人類基因體的遺傳性改變( heritable modifications of the human genome )、為取得幹細胞進行研究而複製人類胚胎。與此同時, ITRE 也重申,歐盟經費可以用於補助人類幹細胞的研究,只要幹細胞的來源不是經由複製人類胚胎兒取得,但研究者必須切實遵守會員國之相關科技政策及法令規定,研究之進行並應依法予以嚴格審核。   ITRE 前述決定目前已提交歐洲議會討論,預計在六月底前歐洲議會即可就此表決。儘管歐盟希望未來在第七期的研發綱要計畫期間內,對幹細胞研究仍延續其目前所採的政策 -- 資助一部份的幹細胞研究但禁止使用複製的幹細胞進行研究(目前歐盟會員國中,僅英國、瑞典、比利時三會員國允許複製胚胎幹細胞),惟由於幹細胞研究議題甚為敏感,且 2004 年 5 月 1 日 新加入的東歐會員國,其大多數在歐洲議會的代表都是天主教徒,故而有關幹細胞研究的議題,恐怕仍有一場激辯。

英國數位、文化、媒體暨體育部發布資料道德與創新中心公眾諮詢

  英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年6月13日發布有關資料道德與創新中心(Centre for Data Ethics and Innovation)之公眾諮詢,本次諮詢將於2018年9月5日截止。   在資料使用與人工智慧皆快速發展且對生活模式產生重大改變之背景下,英國政府認為企業、公民以及公部門對於資料及人工智慧的安全及道德創新都需要有明確規範以資遵循,以因應該領域快速發展而生的問題。為此,英國政府欲新建一個資料倫理與創新中心,該中心本身並不會對於資料及人工智慧的使用作出規範,主要係通過吸收各界的經驗及見解,統整這些經驗或見解並轉化為對政府現行監管方面缺陷之建議,該中心具有獨立諮詢之地位(independent advisory status),提供政府對資料及人工智慧相關議題之治理建議。   諮詢文件內指出中心作用及目標旨在提供政府政策指導,並與監管機構、研究機構、公民社會密切合作,以制定正確的政策措施;對於中心的活動及產出,政府認為中心可進行對於資料及人工智慧的分析及預測,並擬定最佳實務作法(如開發有效及合乎道德的資料及AI使用框架),進而向政府提供有助資料及人工智慧之安全及道德創新發展的相關建議。   本次公眾諮詢主要針對資料道德與創新中心之營運方式及重點工作領域徵詢意見,所提出問題大致上包括是否同意中心目前的職責及目標?中心該如何與其他機構進行合作?中心應採取哪些行動?是否同意目前建議的行動類型?中心需要哪些法定權力?中心如何向政府提交建議?是否應將中心提交之建議向大眾公開?   我國行政院於今(2018)年1月18日提出為期4年之「台灣AI行動計畫(2018-2021)」,計畫內容之五大重點為:(1)AI領航推動;(2)AI人才衝刺;(3)建構國際AI創新樞紐;(4)創新法規、實證場域與資料開放;(5)產業AI化,其中,第4點細部內容提及將建立高資安防護及親善介面之資料開放與介接平台,顯見我國政府正全力推動AI發展,亦對資料開放相關議題頗為重視。是以,英國資料道德與創新中心之發展在未來我國推動AI普及與產業AI化之進程上,似可提供我國參考方向,以健全AI發展之法制環境。

奈米科技之前瞻性規劃-以美國推行綠色奈米為中心

TOP