何謂德國電信媒體法中的「妨害人責任」(Störerhaftung)?

  原德國電信媒體法第八條條文中所指的「網路服務提供者」為擁有獨自或其他電信媒體及提供接取網路服務的自然人或法人,與我國著作權法中所提及「網路服務提供者」(Internet Service Provider)之適用對象範圍略有不同,而德國民法中有個特殊連坐法-「妨害人責任」(Störerhaftung),所有人對於妨害所有權之人,有排除及不作為請求權,因此,在原德國電信媒體法未規定之特定情形下,「網路服務提供者」應對他人透過其網路所從事的任何侵權違法行為負責。

  這項法律使得德國許多咖啡館、公共空間、飯店大廳不願提供免費無線網絡,同時又讓大型咖啡連鎖店如星巴克,以提供免費網絡服務吸引顧客,因為他們就算被捲入網絡侵權責任的訴訟,也不怕支付高額律師費用,小型咖啡館就無法承擔這個風險,只能無奈面對客人轉向大型咖啡連鎖店消費的困境。根據原德國電信媒體法規定,咖啡館業主和其他網路熱點設立者所提供網路服務的方式將可能收到律師的警告函,告知他們不得再為非法下載者提供網路接取服務。

  德國聯邦議院(Deutscher Bundestag)於2016年6月初經過激烈的辯論後,通過電信媒體法(Telemediengesetz; TMG)修正草案,將在最新的電信媒體法中免除「網路服務提供者」之「妨害人責任」(Störerhaftung),使德國的免費無線網絡連接點可以增加並走向開放。

本文為「經濟部產業技術司科技專案成果」

※ 何謂德國電信媒體法中的「妨害人責任」(Störerhaftung)? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7596&no=67&tp=1 (最後瀏覽日:2024/11/23)
引註此篇文章
你可能還會想看
歐洲生技產業協會促請降低中小型生技產業之專利申請費用

  在專利領域,歐盟層級目前尚未有任何整合全體會員國內國專利法之有效法規, 1973 年訂定之歐洲專利公約( European Patent Convention, EPC )並非歐盟層級的法律,且 EPC 僅就歐洲專利的申請、審核及取得予以規定,至於專利權之保護,專利權人仍必須在受侵害國家自行尋求救濟,故自 1972 年起,歐盟即一直試圖整合共同體之專利規定,持續催生「共同專利規則」(草案)( Proposal for a Council Regulation on the Community Patent ),目的是希望在歐洲層級,除了可以有統一受理及發給共同體專利之機制外,關於涉及共同體專利實體法上之解釋,亦能予以統一審理、解釋。   目前歐盟各國紛歧的專利制度,使產業維護與保護其專利權益之成本極高,且受到嚴重影響的往往是那些中小型的新創與研發行公司,若再加上其他必要費用及語言隔閡(當前翻譯費用占歐洲專利的所有申請成本的比率可能高達 20 %)等因素一起比較,即可發現歐洲中小型企業處於競爭劣勢;相較於此,美國對雇用員工少於 300 人的企業的專利申請費用,提供高達 80 %的補助。   由於生技產業多為中小型規模的企業,為確保這些企業的競爭力,歐洲生技產業協會( EuropaBio )建議歐盟參考去( 2005 )年 12 月 15 日 通過的「歐盟醫藥品管理局協助中小型公司發展之規則」( Commission Regulation (EC) No 2049/2005 )減免中小型生技製藥公司新藥上市申請規費的方式,對中小型企業之專利申請費用,亦給予折扣。   這項建議獲得歐盟執委會的支持,執委會並打算在 10 月重新提出的共同體專利規則( Regulation on Community Patent - London Protocol )中納入考量根據 London Protocol ,未來歐洲專利得僅以三種語言(英文、德文及法文)提出,該 Protocol 必須至少有八個國家簽署,包括法國、德國及英國,始能生效 截至目前為止,已經有十個國家(包括德國及英國)的國會同意接受該協議,其中七國並已經相關文件交存,因此一般認為 London Protocol 通過的機率極大。

美國聯邦通訊傳播委員會徵詢智慧電網技術施行意見

  美國參眾兩院於2009年「美國經濟復甦與再投資法」(American Recovery and Reinvestment Act of 2009)─即「振興經濟方案」─要求聯邦通訊傳播委員會(Federal Communications Commission, FCC) 在國家寬頻發展計畫中,須使用寬頻建設及服務,促進節能減碳與能源自主要求。智慧電網(Smart Grid)被認為係符合此要求的新技術。FCC遂公開徵求有關此一技術對國家寬頻發展計畫要求事項更進一步的評論與建言: 1. 使用公私網絡的智慧電網是否適合發展於通訊技術; 2. 何種通訊技術與網絡可符合且最常用於智慧電網科技; 3. 既有商用通訊網絡是否合於智慧電網的運用; 4. 在一般與緊急狀況下,商用無線通訊網絡得否可靠地藉由智慧電網傳輸資料; 5. 現有且合適於發展智慧電網的電力設備於全美的普及率為何; 7. 智慧電網對已發照釋出之頻譜需求為何; 8. 智慧電網使用毋須核照之頻譜是否遭遇介面(interface)上的問題; 9. 是否需要釋出額外或未使用的頻譜?原因為何; 10.如何確保消費者能即時獲知實際能源減耗數據與支付價額; 11.設備、技術提供者與消費者如何相互連結相關家電用品與網路; 12.何種資訊會在一類、二類與電力供應者間被擷取; 13.管理能源之家用網路區域(Home Area networks)在智慧電網中的角色為何?   FCC對智慧電網所蒐集的資料與意見,將對欲發展節能減碳政策的台灣,有相當幫助,值得持續關注。

歐盟執委會公布了行動醫療(mHealth)的公眾諮詢結果

  行動醫療(mHealth)是近期以來歐盟積極發展的目標之一,透過各類的行動裝置搭載應用程式,藉以觀測使用者的生理狀況,進而達到促進健康之目的,特別在綠皮書(Green Paper)提出之後,對於行動醫療的推廣策略,已出現了更為清楚的脈絡。   日前,歐盟執委會針對了行動醫療將可能帶來的各類問題,進行了一次公眾諮詢(public consultation),並在2015年1月公布了調查的結果。此次受訪的對象來自於政府機關、醫療機構、病人組織與網路業者,共計有211名受訪人。在各類的問題上,有97位受訪者認為,行動醫療服務必須具備完整的隱私保全機制,才能夠獲得用戶的信任,此外也有一半的受訪者認為政府應該加強此類資料管理的執法強度;亦有近半的受訪者表示,此類應用程式都應該通過「病人安全」(patient safety)的認證。   相對而言,網路業者則認為此類服務目前還難以進入市場,因為缺乏明確的管理框架。71名受訪者也表示,行動醫療服務的安全性、成效與相關法律責任,都還有待釐清。21名受訪者也認為,行動醫療的成效究竟如何,應該還需要更多的研究證明。   而歐盟委員會將在2015年與相關團體討論未來的政策走向,此法案也將是2015年5月議程中重要的一項議題。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP