英國電信公司批發電話訂價遭OFCOM認定涉嫌價格擠壓

  英國電信管理局(OFCOM)經過兩年的調查,於2010年12月21日發佈一項反對聲明(Statement of Objections),認為英國電信公司(BT)自2008年7月至2009年4月間的批發終端語音電話(wholesale end-to-end voice calls)產品訂價,可能涉嫌價格擠壓(margin squeeze)之濫用獨占地位行為,違反英國1998年競爭法第二章與歐洲聯盟運作條約第102條規定。



  本案係由THUS與Gamma Telecom兩家公司向OFCOM提出檢舉;該兩公司均係由BT提供其批發電話產品,再轉提供服務予家用或商業零售客戶。檢舉人指稱,由於BT的訂價低於成本,並意圖消滅或削弱市場競爭,將迫使部份提供載具預選(Carrier Pre-Selection)服務的業者退出市場。



  在OFCOM作成最終決定前,BT仍可在十二週內以書面或口頭表示意見;BT的發言人則反駁了此項指控,並表示將充分參與OFCOM的調查。然而,如BT經確認違反競爭法,將可能遭OFCOM處以批發電話業務年收入百分之十的罰款。據分析師表示,罰款金額可能達數千萬英鎊。

相關連結
※ 英國電信公司批發電話訂價遭OFCOM認定涉嫌價格擠壓, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5379&no=64&tp=1 (最後瀏覽日:2026/01/30)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

美國成人節目公司Vivid要求HTC改變手機名稱

  Vivid Entertainment是一家成人節目公司,聲稱HTC有商標侵權並已向這電子龍頭寄出警告函。   該公司主張HTC之智慧型手機HTC Vivid 侵害其Vivid Entertainment的商標,並表示HTC使用「Vivid」名稱於4G LTE裝置,造成消費者錯誤印象,以為HTC公司及產品皆為Vivid Entertainment附屬或有所關聯,可能造成消費者混淆或誤認。   Vivid Entertainment於11月14日寄出警告函,要求HTC停止使用該商標銷售手機,並宣稱從1984年已開始使用Vivid商標。該律師於此一警告函中表示HTC的手機名稱可能構成商標侵權、商標淡化及不實的來源標示。   Vivid Entertainment給予HTC回應此信之期限為11月21日,如未收到HTC回覆,Vivid Entertainment將進一步提出法律賠償。先前詢問HTC時,該公司表示:「我們正審視此一指控,我們不會有任何進一步評論,直到這問題被解決。」

美國聯邦地方法院撤銷農業部對基因改造甜菜根之同意案

  今(2010)年8月中,美國聯邦地方法院法官Jeffrey S. White撤銷了美國農業部(United States Department of Agriculture,簡稱USDA)對基因改造甜菜根(genetically modified sugar beets)之同意案,並發出非永久性之禁制令(non-permanent injunction),從2011年開始禁止商業種植基因改造甜菜根。   事實上,早在去(2009)年由多個環保與消費者團體所提起的訴訟中,White法官即已認定美國農業部並未適切地評估商業化種植基因改造甜菜根所可能帶來的生態影響,特別是遠血緣繁殖(out-crossing)的風險,因此,該同意案實已違反國家環境政策法(National Environmental Policy Act,簡稱 NEPA)之規定,但當時法院並未具體指明補救之辦法;在今年8月上旬的聽證會結束後,White法官認為原告已充分闡明基因改造甜菜根可能對環境造成「無可修補之傷害」,在考量到可能造成之經濟影響後,聯邦地方法院特意裁定允許農民仍可按期收穫尚在成長中之基因改造甜菜根,直至2011年春季始完全禁止。然而,美國農業部則是初步回應,他們打算在明年准許基因改造甜菜根在受到控制的情況下有限度地栽種,持續地努力讓傳統、有機與生物科技生產系統得以共存。   由甜菜根所製取的(食用)糖,大約供應了美國國內50%的需求;其中,從2007年開始種植的基因改造甜菜根,其耕地面積在2010年時已達470,000公頃,佔全美甜菜根收成總數的95%之譜!本案深刻地點出基因改造生物體(Genetically Modified Organism,簡稱GMO)所涉及之安全風險與經濟效益的衡平問題,後續所引發的討論值得我們追蹤下去。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP