德國聯邦網路局(Bundesnetzagentur)法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)提出OTT服務法制規範意見報告

  德國聯邦網路局(Bundesnetzagentur) 法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)於2015年11月18日提出「在OTT服務業者重要性提升背景下電信與媒體法制演變進程」意見報告(Evolution der Regulierung in den Telekommunikations- und Mediensektoren angesichts der Relevanzzunahme von OTT-Anbietern)。此報告針對OTT服務提出以下建議:

1. 是否電信服務(Telekommunikationsdienst)定義僅侷限於「電子信號的傳送」。倘若如此,是否亦須將OTT-I類型服務,亦即網路語音通話或電子郵件服務(例如:Skype, Gmail等),如同歸類並視電信服務而所規範。基於OTT-I服務的性質跟傳統通訊服務相似度很高(例如電話通訊服務),因此是否傳統電信服務定義須要涵蓋OTT-I服務,仍待明確的法制規範。

2. 倘若OTT-I種類的服務被歸類為「電信服務」,依此邏輯是否須要遵守德國電信法(Telekommunikationsgesetz)相關的傳統電信服務義務,像是緊急電話撥打義務、消費者保護、通訊隱私保障、資料保護等,仍待明確的法制規範。

3. 透過OTT服務所蒐集到的資料,均需透過明確的授權規範才得以讓OTT服務提供者有足夠的權限商業性的應用該資料。

4. 在OTT-II服務,亦即內容提供服務(Inhaltdienste)業者快速成長的背景下(例如Youtube,Netflix等),建議鬆綁歷來針對傳統影音媒體服務業者要求之嚴格廣告規範。

5. OTT-II內容平台需在公開網路上履行公平原則及反歧視原則。此原則亦應落實於終端設備使用者。

6. 支持歐盟資料保護規章的市場位置原則(Marktortprinzip)。

7. 電信法與媒體法在實體法上應更佳有所統合性。主管機關需符合憲法權限制訂法制規範,其規範亦必須符合其適當性(Zweckmäßigkeit)。

相關連結
※ 德國聯邦網路局(Bundesnetzagentur)法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)提出OTT服務法制規範意見報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7150&no=67&tp=1 (最後瀏覽日:2026/03/07)
引註此篇文章
你可能還會想看
商標權人的好消息—歐盟法院判決巴黎萊雅(L’Oreal)勝訴

  歐盟法院(European Court of Justice; 簡稱ECJ)於2009年6月18日判決,確認法國化妝品公司- 巴黎萊雅(L’Oreal SA)之競爭廠商-Bellure NV(簡稱Bellure公司) 有侵害巴黎萊雅之商標權,此一判決對於刻意仿冒之廠商予以重擊,也更擴大著名商標權人的商標保護範圍。     Bellure公司所販售及製造的香水,係仿似巴黎萊雅所製造香水的味道、瓶身及包裝,且更以”smell-a-like”的商品價格比較表做為廣告宣傳,藉由「搭便車」的方式推銷Bellure之產品。     歐盟法院認為,縱使Bellure的廣告宣傳及產品本身,並未直接和巴黎萊雅的產品產生商標混淆誤認的可能,且並未對巴黎萊雅造成直接的損害,但Bellure如此「搭便車」行銷自己產品的方式,確實是以不正當的廣告方式獲取不公平的利益,並銷售自已的產品。     本案將使商標權人對於日漸複雜的侵害類型獲得保障,如:仿冒品的販售及網路銷售等;此外,對於產品在做宣傳時也要小心使用比較性的文字(如:僅做產品性質差異的比對而非產品價格的比對),以免侵害他人商標權。

美國國會通過700MHz D區段頻譜之規範

  為實施公共安全網路計畫,美國國會在2012年二月通過「2012年中產階級稅收減免及創造就業法案」(Middle Class Tax Relief and Job Creation Act of 2012),將700MHz頻段中既有存在之公共安全寬帶頻譜(763-769 MHz/793-799 MHz)與相鄰的D block的頻段(758-763MHz與788-793MHz)規劃成 「互通公共安全寬頻網路」(interopertable public safety broadband network),進行頻譜拍賣。   雖FCC經本法案授權執行D Block頻段的拍賣,但也限縮其職權規定FCC不得限制任何特定業者參與競標。針對FCC職權受到限制,業者認為可避免FCC在拍賣期間逕自訂定特別規則之情形。但法案仍保留FCC執行「普遍適用性的規定」(rules of general applicability)之權利,以頻譜聚合(spectrum aggregation)的規定促進市場競爭。對此,主導業者擔心FCC可能藉採取「頻譜上限」 (spectrum cap)的管制手段來限制其獲得大量頻譜的機會。   另外,面對全國性公共安全寬頻網路部署之需要,國會將授權行政部門建立「緊急救難管理局」(First Network Authority, FirstNet)來進行整體網路之開發規劃。在FirstNet尚未成立之前,FCC將暫時承擔此一過渡期間管理全國公共安全寬頻網路之責任。但FirstNet在未來是否能依照國會所期待順利掌管整體公共安全寬頻網路之運作,並達成建構一跨機關、部會以及區域的無縫互通寬頻網路平台(a nationwide interoperable public safety broadband network)之期望,FCC認為該局所任命之委員會委員所具備之專業度,以及各聯邦機構是否充分的支持將是成功之關鍵。

何謂「美國創新戰略」?

  美國創新戰略(Strategy for American Innovation)係美國經濟委員會(National Economic Council,NEC)及白宮科技政策辦公室(Office of Science and Technology Policy,OSTP)於2009年9月所提出的重要科研指導政策,為美國近年調整科研發展之依據,曾分別於2011年2月及2015年10月配合時事增補最新內容。該政策主要在說明美國政府、國民與企業應如何共同努力進行全面性的創新,強化長期的經濟成長;在此基礎上發展對於美國產業發展具有優先重要性的技術領域。最初提出時內容包括:1.美國創新基石之投資;2.促進以市場為導向的創新;3.以及針對國家需求的優先順位催化重要的科技突破。   白宮在2011年4月進一步提出一些重要的創新促進新機制,包括改革專利制度、重視數位教育以及基礎科學教育的強化、加速發展再生能源、提振美國創業精神(entrepreneurship)等。隨著政策的逐步推行,2015年10月公布之最新版本,內容包括:1.投資創新基石;2.刺激私部門進行創新活動,並研議租稅優惠永久制度化;3.營造一個創新者國家,改善創業環境,協助更多創新者成功創業。並且在政府機關間強調創新,另著重於從私部門的根本改變其活動和行為模式,提升創新層次才能確實將創新成果在產業間創造出來。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP