歐盟執委會以濫用獨占地位處罰斯洛伐克電信及其母公司德意志電信

  經過深入的調查後,歐盟執委會以違反歐洲聯盟運作條例(TFEU)第102條之禁止濫用獨占地位課處斯洛伐克電信(Slovak Telekom a.s.)及其母公司德意志電信(Deutsche Telekom AG)總計38,838,000歐元之罰金。

  斯洛伐克電信以超過五年之濫用獨占地位之策略,阻擋其他來自斯洛伐克市場之競爭者提供寬頻服務,因而違反歐盟反托拉斯法。尤其,執委會認為其拒絕提供開放之用戶迴路(unbundled access to its local loops)予其競爭者,因而導致其他經營者之利潤擠壓。其母公司德意志電信對於其子公司之行為有責;因此,應連帶負擔斯洛伐克電信之罰款。此外,德意志電信於2003年已經因為在德國寬頻市場的利潤擠壓而被罰款,該公司亦被課處額外之罰款共31,070,000歐元,以確保嚇阻及制裁其反覆的濫用行為。

  2005年8月,斯洛伐克電信公布在某些條件下,允許其他經營者使用其開放用戶迴路(ULL)。此外,斯洛伐克電信亦不正當地阻擋用戶迴路開放的必要網路資訊;單方面地減少規範中所要求其開放迴路之義務的範圍,以及,在每一個取得開放用戶迴路所需之步驟上,設定不公平的條款和條件(例如搭配、資格、和銀行擔保)。因而延後或阻止其他經營者進入斯洛伐克零售寬頻服務市場。

  此外,當其他競爭者以斯洛伐克電信訂定之零售價格販賣寬頻服務予零售消費者時,將產生利潤擠壓而導致虧損;在此種情況下,其他經營者將無法進入斯洛伐克市場。

相關連結
※ 歐盟執委會以濫用獨占地位處罰斯洛伐克電信及其母公司德意志電信, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6672&no=0&tp=1 (最後瀏覽日:2025/07/05)
引註此篇文章
你可能還會想看
英國期望透過資料使用與近用法案修正案,強化數位證據資料之可信任性

英國於2024年11月提出資料使用與近用法案(Data (Use and Access) Bill)修正案,其修正內容包含強化數位證據資料之可信任性。 根據英國數十年來的法院判決,可以觀察到英國法院信任電腦自動產出的資料,因此除非當事人提出反證,否則將推定電腦證據是可信賴的。然而,該見解導致英國爭議案件「郵局Horizon系統出錯案」的發生,亦促使資料使用與近用法案修正案的提出。 資料使用與近用法案修正案於第132條新增與數位證據相關的條款,同條第1項規定由電腦、裝置或電腦系統產生的數位證據,符合下列規定者,於訴訟程序中可以作為證據。 a、 數位證據以及產生數位證據或衍生數位證據之系統之可信任性未受質疑。 b、 法院確信無法合理地挑戰系統之可信任性。 c、 法院確信數位證據源自可信任的系統。 此外,同條第4項規定第1項第c款所指之可信任的系統,應包括適用於系統運作的任何指示或規則,以及為確保系統中保存的資料的完整性而採取的任何措施。 綜上所述,英國逐漸扭轉過去英國法院認為由電腦自動產生的資料具有可信任性之見解,並透過資料使用與近用法案修正案修正對於數位證據的認定,未來在涉及數位證據的案件中,檢辯雙方需要證明作為數位證據的資料完整性具有可信任性。 我國企業如欲強化數位資料的可信任性,可參考資訊工業策進會科技法律研究所創意智財中心所發布之重要數位資料治理暨管理制度規範(EDGS),建立並落實數位資料管理流程,除可確保數位資料的完整性及正確性具有可信任性,亦可提升法院採納數位資料作為證據之可能性。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

歐盟議會要求禁止將複製動物作為食品

  伴隨著歐洲食品安全局公開一項經高度謹慎評估關於複製動物在食品安全、動物健康和環境等方面關聯性之科學意見後;歐洲議會隨即於2008年9月3日邀集委員會召開討論會議,並於該會議中遞交出有關於禁止將複製動物作為食品之建議案。透過表決,在622票贊成、25票棄權與32票反對之壓倒性決議下,議會通過了該項建議案。   該項禁令建議案要求歐盟境內各會員國應禁止:(1)以複製動物作為食物之來源、(2)為糧食供應目的而進行畜養之複製動物或其繁殖之子代、(3)於市場上販售經由複製動物或其經繁殖之子代所衍生之食用肉品與乳製品;以及(4)禁止以食用為目的自境外進口複製動物與其經繁殖之子代(包括精子或卵子細胞)等行為。   而EFSA也發現:「不太可能達成全面性食品安全之評估工作」,故對於缺乏可靠數據資料而需進行評估之主體而言,在進行風險評估時,其仍將會不斷地被不確定性問題所困擾;同時,EFSA在該報告中還強調:透過比對複製動物與經傳統育種繁衍之動物後,其也將面臨「於動物健康及福利方面等重要爭議問題」。另外,歐洲議會成員指出:將透過歐盟農場動物保護指令中,有關禁止任何可能引起痛苦或傷害之自然或人為育種繁殖過程之規定,作為該項禁令之法律授權依據。   截至目前為止,尚未有任何由複製動物所衍生之產品在歐洲或者世界其它地方被銷售;不過,由於美國食品藥物管理局(FDA)早在2008(今)年1月份時即做出結論,認為:由複製牛、豬、山羊與其子代所產生之肉品與牛奶,其安全性與食用從傳統育種動物所衍生之食品並無二致。因此,專家們咸信,此類產品將會於2010年時正式進入市場販售;而在歐洲方面則更進一步認為,日後在處理複製動物食用之問題上,應要兼顧到動物福利之保護與獲得廣大消費者之信賴。

日本經產省公布AI、資料利用契約指引

  伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。   針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。   「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。   AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP