歐盟執委會以濫用獨占地位處罰斯洛伐克電信及其母公司德意志電信

  經過深入的調查後,歐盟執委會以違反歐洲聯盟運作條例(TFEU)第102條之禁止濫用獨占地位課處斯洛伐克電信(Slovak Telekom a.s.)及其母公司德意志電信(Deutsche Telekom AG)總計38,838,000歐元之罰金。

  斯洛伐克電信以超過五年之濫用獨占地位之策略,阻擋其他來自斯洛伐克市場之競爭者提供寬頻服務,因而違反歐盟反托拉斯法。尤其,執委會認為其拒絕提供開放之用戶迴路(unbundled access to its local loops)予其競爭者,因而導致其他經營者之利潤擠壓。其母公司德意志電信對於其子公司之行為有責;因此,應連帶負擔斯洛伐克電信之罰款。此外,德意志電信於2003年已經因為在德國寬頻市場的利潤擠壓而被罰款,該公司亦被課處額外之罰款共31,070,000歐元,以確保嚇阻及制裁其反覆的濫用行為。

  2005年8月,斯洛伐克電信公布在某些條件下,允許其他經營者使用其開放用戶迴路(ULL)。此外,斯洛伐克電信亦不正當地阻擋用戶迴路開放的必要網路資訊;單方面地減少規範中所要求其開放迴路之義務的範圍,以及,在每一個取得開放用戶迴路所需之步驟上,設定不公平的條款和條件(例如搭配、資格、和銀行擔保)。因而延後或阻止其他經營者進入斯洛伐克零售寬頻服務市場。

  此外,當其他競爭者以斯洛伐克電信訂定之零售價格販賣寬頻服務予零售消費者時,將產生利潤擠壓而導致虧損;在此種情況下,其他經營者將無法進入斯洛伐克市場。

相關連結
※ 歐盟執委會以濫用獨占地位處罰斯洛伐克電信及其母公司德意志電信, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6672&no=67&tp=1 (最後瀏覽日:2025/11/26)
引註此篇文章
你可能還會想看
歐盟公布人工智慧白皮書

  歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。   在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。   而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。

德國最新無人機之法規命令(Die Drohnen-verordnug)

  德國在2017年的3月通過了最新的無人機相關法規命令,亦包含傳統模型飛機的部分,並於2017年4月7日生效,新的修正重點如下: 模型飛機如在專用的機場飛行則維持不變,但如果離開專用機場作使用時,則必須安裝記載有所有人姓名及住址的徽章。 在非專用機場使用時,無人機與模型飛機的共通事項: (1) 超過0.25公斤時:必須安裝記載有所有人姓名及住址的徽章。 (2) 超過2公斤時:除前述的徽章外,還必須有特別的有關無人機或模型飛機的專業知識證明;而該知識證明,可以從聯邦航空局(Luftfahrt-Bunderamt)或民間飛行運動協會(Luftsportverband)透過考試取得。 (3) 超過5公斤時:除前述的條件外,需要從各地區航空管理部門(Landesluftfahrtbehörden)追加額外的升空許可(Aufsteigserlaubnis)。 關於操作者的規範: (1) 無人機的操作者,除了在模型飛機基地外,原則上禁止飛行超過100米高,但可向地區航空管理部門提出申請。 (2) 模型飛行器操作者須有專業知識證明。 (3) 無人機與模型飛行器只能在能肉眼可見下飛行。 一般適用規定:無人機與模型飛行器不能阻礙或危害人力駕駛飛行器。 禁止事項: (1) 所有的無人機或模型飛行器不得在敏感區域(例如:警察機關、救難隊、大群民眾所在地、主幹道、航空起降區等)使用。 (2) 無人機與模型飛行器不得於住宅區接收、播送、以及紀錄影片、聲音、或是無線電訊號。   綜合觀察可以發現,德國對於無人機的使用規範(或限制),可以歸結至三 方面,對於使用人的規範、無人機的大小以及使用地點的限制。

美國對於智慧聯網 IoT 環境隱私保障展開立法工作

  有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。   並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP