資訊揭露與市場競爭評估–
研析英國水平協議指引中之資訊交換
資訊工業策進會科技法律研究所
2023年09月23日
英國競爭與市場管理局(Competition and Markets Authority,CMA)於2023年8月16日發布《1988年競爭法第一章禁令適用於水平協議之指引》(Guidance on the application of the Chapter I prohibition in the Competition Act 1998 to horizontal agreements,以下簡稱CMA水平協議指引),以規範實際或潛在競爭者間之協議[1]。CMA水平協議指引提供事業擬定協議內容的參考,事業間於業務合作的同時,亦能符合法遵之要求,以維護市場公平競爭。
壹、事件摘要
英國CMA水平協議指引解釋競爭法之適用,尤其是《1998年競爭法》(Competition Act 1998,CA98)第1章禁止水平協議。2023年1月1日,《1998年競爭法(專業協議集體豁免)2022年指令》(SABEO)與《1998年競爭法(研發協議集體豁免)2022年指令》(R&D BEO)生效,於2023年8月16日發布之CMA水平協議指引,協助事業評估特定類型的水平協議是否受益於SABEO和R&D BEO,和遵守競爭法之相關規範[2]。申言之,CMA水平協議指引協助事業評估其所簽訂之協議內容,是否屬於法規範豁免之類型,且合乎競爭法之規定。
CMA水平協議指引說明研發協議[3]、生產協議[4]、採購協議[5]、商業化協議[6]和標準化協議[7]之適用與範例。鑒於大數據分析與機器學習需使用大量的資料;而大數據分析的結果,或機器學習的應用,將影響決策的形成,資訊交換因而更顯重要[8],CMA水平協議指引亦引導事業為合理的資訊交換。
資訊交換不僅為競爭市場的共同特徵,在一般的情形亦有利於消費者;例如資訊交換有助於解決資訊不對等而提升市場效率,事業能藉由比較最佳實踐方案,以提高內部效率;能減少庫存以節省成本,並處理不穩定的需求;或藉由演算法以開發新的產品或服務;[9]或減少搜尋成本,以提供消費者利益[10]。依據實際情況,資訊交換可以是有利於競爭,競爭中立或限制競爭[11]。換言之,競爭市場中適當的資訊交換,有助於事業降低成本,提升效率。
貳、重點說明
CMA水平協議指引第8章為資訊交換(Information Exchange),目的即在指導事業為資訊交換的競爭評估[12]。資訊交換是否會引發限制競爭之效應,取決於市場的特性,包含[13]:
(1)市場透明度:越透明的市場,競爭之不確定性越小[14]。
(2)市場集中度:若市場中僅有少數事業,則易於達成共識,與控制市場偏差。若市場高度集中,則訊息的交換,將有助於事業了解競爭者的市場地位和策略,而扭曲競爭,甚而增加共謀(collusion)的風險;若市場分散,則競爭者間資訊的傳播與交換,對市場而言,可能為競爭中立或有利於競爭[15]。
(3)參進障礙:此使外部競爭者無法破壞市場中的共謀結果(collusive outcome)[16]。
(4)市場穩定度:在供需穩定的市場,亦可能有共謀的結果;而需求的波動、市場中事業內部的大幅成長、新事業的參進、顛覆性創新(disruptive innovation),均可能顯示市場的穩定度不足,需提升交流,以促進競爭[17]。
競爭對手間的資訊交換,依據共享資訊的內容、目的、法律與經濟背景,可能為侵權而應受限制。包含與競爭對手交換事業目前或未來的訂價方向、生產能力、商業策略、針對需求的規劃,對未來銷售的預測,和在特定市場上的財務狀況與經營策略[18],提供價格資料而能預測事業未來的行為,和與競爭對手交換潛在參進者所提出之計畫要點[19]。申言之,事業應避免資訊所生之侵權行為;並需考量市場的特性,以評估資訊交換對競爭之限制。
參、事件評析
CMA水平協議指引第8章,提供事業間交換資訊的相關建議。為提升資訊交換對市場的效益,以資訊內容而言,事業須考量資訊交換的目的,以及藉由收集資訊、確認資訊交換的參與者係使用其具有所有權的原始資料、使用歷史資訊、僅交換與達到目標相符且必要的資訊,而能減少具有商業敏感性質的內容[20]。換言之,事業須避免機敏資料的流通,並具有使用資料的權限。
以資訊應用的角度,事業應採取措施,以控制資訊的交換與使用,包含減少頻繁的交換,以特定團隊(clean team)或信託方式進行資訊交換,或使用資料池(data pool)以確認近用資料之所有權[21]。亦即事業須確認資料的來源,與交換資料的相對人,並能管理資料流通的過程。
綜上所論,足夠的資料量,使大數據分析的結果能充分反映市場的實際需求,事業的決策和布局亦更為準確,適當的資訊交換有助於提升事業的市場競爭力。CMA水平協議指引協助事業評估資訊交換對競爭之影響,事業之資訊管理,除內部資訊之維護外,亦包含外部資訊之交換,如資訊交換之必要性,與資訊近用之權限、方式等,或可提供臺灣事業參考。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
[1]Guidance on Horizontal Agreements, GOV. UK, Competition and Markets Authority, https://www.gov.uk/government/publications/guidance-on-horizontal-agreements (last visited Aug. 23, 2023).
[2]CMA COMPETITION & MARKETS AUTHORITY, Guidance on the application of the Chapter I prohibition in the Competition Act 1998 to horizontal agreements, CMA184 (Aug. 2023), 6, at 6, https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1178791/Horizontal_Guidance_FINAL.pdf (last visited Sept. 01, 2023).
[3] Id., at 35 below.
[4] Id., at 83 below.
[5] Id., at 124 below.
[6] Id., at 145 below.
[7] Id., at 203 below.
[8] Id., at 165.
[9] Id.
[10] Id., at 166.
[11] CMA Competition & Markets Authority, supra note 8.
[12] Id.
[13] Id., at 188.
[14] Id.
[15] Id., at 188-189.
[16] Id., at 189.
[17] Id.
[18] Id., at 190.
[19] Id., at 191.
[20] Id., at 201.
[21] Id.
美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
英國推動智慧電網 – 對隱私疑慮的回應與提供用戶能源使用量資訊之規劃 臺北高等行政法院103年度訴更一字第120號判決對健保資料作目的外運用之態度 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。