歐盟監察官日前指出,ISP業者的流量管理可能違反資料保護及隱私法

  歐盟資料隱私保護監督官(European Data Protection Supervisor, EDPS)Peter Hustinx呼籲歐盟,儘速建立專家小組,制定指導原則,將資料保護以及隱私原則納入網路中立原則中(Network Neutrality)。

  網路中立原則原係要求對於網路服務提供者之間不應有所歧視,應平等對待所有資料。但是,在符合歐盟法規下,ISP業者亦得針對網路內容提供者或終端使用者,以不同收費方式管制網路流量。判斷的準據,則以使用者在網路上傳遞的個人訊息為主。調查官Hustinx在其意見書中指出,調查使用者傳遞的訊息可能會背離歐盟資料與隱私保護相關法律。

  根據歐盟的隱私及電子通訊指令(Privacy and Electronic Communication Directive),ISP業者在某些條件下,得以促進通訊傳輸為目的,處理個人資料,但是必須取得使用人同意。這項指令亦要求ISP業者必須採取適當的技術、組織措施以確保資料的安全。承此,Hustinx就網路中立性所提出的意見,即為前述指令之例外,亦即ISP業者在確保網路順暢及監督是否有干擾時,其監控行為無須使用者同意。但若為限制某些服務,例如檔案交換,而進行的監控行為,則不在此限。再者,該同意必須免費的、明確的並且使用者得了解的。Hustinx提出的指導原則強調確保網路使用者被適當的告知,進而了解該項個人資料監控的意義而做出同意與否的決定。同時,ISP業者在進行調查時,亦應謹慎為之,不違反比例性原則。

相關連結
相關附件
※ 歐盟監察官日前指出,ISP業者的流量管理可能違反資料保護及隱私法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5563&no=64&tp=1 (最後瀏覽日:2026/04/22)
引註此篇文章
你可能還會想看
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

歐盟執委會就中國大陸法院頻發禁訴令情形,循WTO爭端解決機制向中國大陸提出諮商請求

  歐盟執委會(European Commission, EC)於2022年2月18日向中國大陸提起諮商請求(request for consultation),此係世界貿易組織(World Trade Organization, WTO)爭端解決機制(Dispute Settlement Mechanism, DSM)之一環,並依照「爭端解決程序與規則瞭解書」(Understanding on Rules and Procedures Governing the Settlement of Disputes, DSU)第4.4條之規定,副知WTO的爭端解決機構(Dispute Settlement Body, DSB)。   EU於此諮商請求中指出,自2020年8月中國大陸最高人民法院就Huawei對 Conversant案此一涉及標準必要專利(Standards-Essential Patents, SEP)之訴訟核發禁訴令(Anti-Suit Injunction, ASI),並裁定違反者將被處以每日100萬人民幣之罰款後,中國大陸各法院即頻以此方式禁止外國專利權人於中國大陸以外之法院提起或續行專利訴訟(例如:Xiaomi對Interdigital案、ZTE對Conversant案、OPPO對Sharp案、Samsung對Ericsson案等)。中國大陸法院此等措施(measures)限制歐盟會員國公司行使專利權,違反「與貿易有關的智慧財產權協定」(The Agreement on Trade-Related Aspects of Intellectual Property Rights, TRIPS);關於此,EU先前已多次與中國大陸政府交涉,例如曾在2021年7月依據TRIPS第63.3條(會員國法律文件透明化要求),發函請求中國大陸公開專利相關判決之進一步資訊,然均未果。故EU此次提出與中國大陸政府諮商之請求。   EU此諮商請求是DSM的第一步;如雙方未能於中國大陸政府收到諮商請求之60日内解決爭端,依照DSU第4.7條,EU得要求DSB組成一專門小組,就此事進行審理,以認定中國大陸多數法院頻發ASI一事是否違反TRIPS第1.1條、第28.1條、第28.2條及第41.1條、第44.1條及第63.1條等。

美國參議院司法委員會通過草案 擬規範學名藥給付延遲訴訟和解協議

  為禁止藥廠間持續利用「給付遲延和解協議」(pay-for-delay settlements)來延遲低價學名藥品上市,美國參議院司法委員會(Senate Judiciary Committee),日前已表決通過由參議員Herb Kohl 所提之「保障低價學名藥品近用法草案」 (Preserve Access to Affordable Generic Drugs Act 【S. 369】),並已提交兩院,進行後續之討論及審查。而就該新法草案內容,大致上,是為解決品牌藥廠因採逆向給付(Reverse Payment)和解協議以阻礙學名藥品上市時,將帶來長期用藥與醫療成本增加等問題之目的而設。   而就前述所提及之訴訟協議模式來說,原則上,在品牌藥商為解決藥品專利訴訟問題之前提下,透過給付學名藥品廠商數百萬美元報酬(即補償金)之方式,來做為換取學名藥廠同意並承諾願將該公司學名藥產品延緩上市條件之對價,並藉此以保存系爭藥品原先既存之市場利潤。而對此類將嚴重影響大眾日後近用低價藥品權益之和解協議,美國聯邦貿易委員會(Federal Trade Commission;簡稱FTC)業已於近期內,作出完整之分析報告,其指明,若政府能終止此類和解協議,除將可於往後十年間,可為聯邦政府減低近120億美金之預算支出外;同時,亦可為民眾節省下近350億美金之醫療成本。   此外,由於受FTC該份分析報告之影響,於先前司法委員會之表決過程中,委員對此類訴訟和解所採之態度,也產生重大轉變,亦即,其從最初肯認可提出充分證據並證明將不會損及正常藥廠間競爭之和解協議,轉而改為,應嚴格限制此類訴訟和解協議之產生;同時,為嚇阻藥廠間給付遲延訴訟協議之達成,於此項新法草案中,亦新增相關處罰之規定。   最後,參議員Kohl強調:「一旦此項草案通過,除將可終結過往那些罔顧消費者權益之不當競爭行為外;從長期影響之角度來看,該法案亦可為公眾省下每年約數十億美金之用藥花費」。。

歐盟執委會關切奈米科技對於食品安全之影響

  近年來,奈米科技已多方使用於食品製造業中,舉凡食品的殺菌、保存或食材的包裝等,皆為適例。然而,隨著奈米科技的影響層面逐漸擴大,無論係其功用的研發或風險的防範,仍有進一步研究之必要。   歐盟執委會(European Commission)根據2007年3月其新興健康風險科學委員會(SCENIHR)所提出之報告,認為應加強認識奈米科技對於食品安全之影響,遂邀請歐洲食品安全局(EFSA)就該領域提出科學看法。至2008年10月14日,歐洲食品安全局科學委員會即公布「奈米科技對於食品和飼料所引起之潛在風險(Potential Risks Arising from Nanoscience and Nanotechnology on Food and Feed Safety)」草擬意見,其內容係說明奈米科技應用於食品製造業之多種樣態、人為奈米材料(engineered nano materials,ENM)於食品或飼料製造過程中所產生之作用,以及判斷現有之風險評估方式能否合於需要。   該草擬意見歸結數項結論如下: (1) 因人為奈米材料之體積微小且具有高表面積,於人體吸收時較一般物質更容易產生反應。 (2) 關於化學物質於奈米尺寸下將產生何種變化,迄今無法做出令人滿意之科學論斷,因此就安全性與相關數據的累積,仍需要個別檢視。 (3) 建議應針對風險評估一事設置國際基準,且該基準可同時適用於人為奈米材料及一般化學物質。 (4) 食品與飼料中含有人為奈米材料者,於風險評估時應包括該材料特性之敘述,並進行毒理研究分析,使資訊蒐集更為完備。   由於人為奈米材料不確定之事項甚多,因此需要更豐富的資料加以釐清;而該草擬意見除提供歐盟執委會評估現行法制、研究可行措施外,亦向公眾廣徵回應;民眾可於2008年12月1日前,提供歐洲食品安全局相關科學證據或意見,待該局進行彙整後,將與歐盟會員國商討後續事宜。

TOP