德國聯邦網路局(Bundesnetzagentur)法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)提出OTT服務法制規範意見報告

  德國聯邦網路局(Bundesnetzagentur) 法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)於2015年11月18日提出「在OTT服務業者重要性提升背景下電信與媒體法制演變進程」意見報告(Evolution der Regulierung in den Telekommunikations- und Mediensektoren angesichts der Relevanzzunahme von OTT-Anbietern)。此報告針對OTT服務提出以下建議:

1. 是否電信服務(Telekommunikationsdienst)定義僅侷限於「電子信號的傳送」。倘若如此,是否亦須將OTT-I類型服務,亦即網路語音通話或電子郵件服務(例如:Skype, Gmail等),如同歸類並視電信服務而所規範。基於OTT-I服務的性質跟傳統通訊服務相似度很高(例如電話通訊服務),因此是否傳統電信服務定義須要涵蓋OTT-I服務,仍待明確的法制規範。

2. 倘若OTT-I種類的服務被歸類為「電信服務」,依此邏輯是否須要遵守德國電信法(Telekommunikationsgesetz)相關的傳統電信服務義務,像是緊急電話撥打義務、消費者保護、通訊隱私保障、資料保護等,仍待明確的法制規範。

3. 透過OTT服務所蒐集到的資料,均需透過明確的授權規範才得以讓OTT服務提供者有足夠的權限商業性的應用該資料。

4. 在OTT-II服務,亦即內容提供服務(Inhaltdienste)業者快速成長的背景下(例如Youtube,Netflix等),建議鬆綁歷來針對傳統影音媒體服務業者要求之嚴格廣告規範。

5. OTT-II內容平台需在公開網路上履行公平原則及反歧視原則。此原則亦應落實於終端設備使用者。

6. 支持歐盟資料保護規章的市場位置原則(Marktortprinzip)。

7. 電信法與媒體法在實體法上應更佳有所統合性。主管機關需符合憲法權限制訂法制規範,其規範亦必須符合其適當性(Zweckmäßigkeit)。

相關連結
※ 德國聯邦網路局(Bundesnetzagentur)法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)提出OTT服務法制規範意見報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7150&no=67&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
日本內閣府召集研究小組 解決因AI帶來之智財問題

日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。 日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)

韓國國會議員提出著作權法修法,擬導入著作權專業人員國家證照制度

  尹官石(Youn, Kwan-Suk)等11位韓國國會議員於2013年7月16日提出著作權法修正案,修法內容包括「導入著作權專門士及資格考試等制度」、「增訂著作權保護院設立之法源依據及相關業務規定」、「著作權保護院之審議委員會之組成」、「審議及發出糾正命令之主體變更為著作權保護院」。   韓國國會議員尹官石指出,雖然韓國著作權產業規模逐漸擴大,但據統計,著作權專業人才僅1萬3533位,專業人才明顯仍然不足。再者,著作權小規模訴訟也不斷增加。另外,現在雖有營運核發著作權相關資格證書業務之民間業者,但卻存在廣告誇大、課程內容不實,缺乏事後管理機制等問題,而造成市場混亂。為解決上述問題,韓國著作權法擬導入著作權專業人員之國家資格證照制度,希望藉以有效培育著作權專業人才,讓著作權產業得以健全發展。   另一方面,影視內容和電腦軟體為韓國著作權產業之核心,其所創造之附加價值及就業機會均呈現增加的趨勢,但相對來說,韓國音樂、電影、電視劇等內容常被非法重製,而這樣的非法重製行為造成3兆9758億韓圜之生產利益損失,減少3萬6千個就業機會。對此,為更有效推動著作權保護,並使著作權保護業務推動一元化,藉以促進文化內容產業發展,著作權法擬修法整併現有的著作權保護中心和韓國著作權委員會之功能,改設著作權保護院,以統合著作權保護業務。   在此一著作權法修正案之後,韓國文化體育觀光部及其它議員亦對其它著作權議題,如擴大著作權保護及合理使用範圍等,提出修正案,因此後續韓國著作權法的修法動態,值得持續關注。

歐盟資通安全局(ENISA)提出資通安全驗證標準化建議

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)(舊稱歐盟網路與資訊安全局European Union Agency for Network and Information Security)於2020年2月4日發布資通安全驗證標準化建議(Standardisation in support of the Cybersecurity Certification: Recommendations for European Standardisation in relation to the Cybersecurity Act),以因應2019/881歐盟資通安全局與資通安全驗證規則(簡稱資通安全法)(Regulation 2019/881 on ENISA and on Information and Communications Technology Cybersecurity Certification, Cybersecurity Act)所建立之資通安全驗證框架(Cybersecurity Certification Framework)。   受到全球化之影響,數位產品和服務供應鏈關係複雜,前端元件製造商難以預見其技術對終端產品的衝擊;而原廠委託製造代工(OEM)亦難知悉所有零件的製造來源。資通安全要求與驗證方案(certification scheme)的標準化,能增進供應鏈中利害關係人間之信賴,降低貿易障礙,促進單一市場下產品和服務之流通。需經標準化的範圍包括:資訊安全管理程序、產品、解決方案與服務設計、資通安全與驗證、檢測實驗室之評估、資通安全維護與運作、安全採購與轉分包程序等。   ENISA認為標準化發展組織或業界標準化機構,在歐盟資通安全之協調整合上扮演重要角色,彼此間應加強合作以避免重複訂定標準。目前有三組主要國際標準可構成資通安全評估之基礎: ISO/IEC 15408/18045–共通準則與評估方法:由ISO/IEC第1共同技術委員會(JTC1)及第27小組委員會(SC27)進行重要修訂。 IEC 62443-4-2–工業自動化與控制系統之安全第4-2部分:作為工業自動化與控制系統元件的技術安全要求。 EN 303-645–消費性物聯網之資通安全:由歐洲電信標準協會(ETSI)所建立,並與歐洲標準委員會(CEN)、歐洲電工標準化委員會(CENELEC)協議共同管理。   然而,資通訊產品、流程與服務種類繁多,實際需通過哪些標準檢驗才足以證明符合一定程度的安全性,則有賴驗證方案的規劃。為此,ENISA亦提出資通安全驗證方案之核心構成要件(core components)及建構方法論,以幫助創建歐盟境內有效的驗證方案。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

TOP