日本公平交易委員會公布資料市場競爭政策檢討會報告書,提出建構資料市場公平競爭環境之政策建議

  日本公平交易委員會(公正取引委員会)於2021年6月25日發布關於資料市場競爭政策檢討會(データ市場に係る競争政策に関する検討会)報告書。所謂資料市場,不僅指資料從產出、蒐集、整理儲存(蓄積)、加工、分析到利用等各階段的交易,尚包含向終端使用者提供相關商品或服務。其類型包含企業經營所產出的「產業資料」(産業データ),以及與個人相關的「個人資料」(personal data,原文為パーソナルデータ)。近年來,數位平台型業者參與資料市場、活用資料經營相關商業活動的情形漸增。同時,資料不同於傳統交易客體,具備以下特徵:(1)技術上容易複製;(2)無法建立排他性佔有;(3)需透過累積與解析方能創造其價值;(4)可藉由累積使用資料持續優化產品機能。而累積大量資料的數位平台業者,亦可能藉此形成獨占、寡占、排除其他競爭者等。

  基此,本報告書針對此一競爭秩序現況,提出以下建議:

  1. 建構鼓勵新業者加入資料市場的機制:應充分考量各潛在參與者之需求,同時留意利用資料之事業退出市場經營時,不應對使用該事業服務的個人造成不利益。
  2. 針對產出資料之行為建立獎勵機制,同時促進業界自由且易於取用資料。
  3. 區分各企業經營共通事項之協調領域、以及企業間各自專業化經營之競爭領域。就前者提供共通性指引與開放行政保有資料供利用,對後者則須管制妨害公平競爭之行為。
  4. 確保資料可攜性,與不同系統間的互通性(interoperability,原文為インターオペラビリティ),讓使用者容易轉換其所利用的平台服務。
  5. 優化關於個資利用的說明義務內容,尤其針對平台在不知情下蒐集資料的情形,應額外規範業者採取相應配套措施,避免造成當事人不利益。
  6. 就數位平台形成的市場寡占與資料獨占蒐集問題,可考量採取令其他業者能公平取用資料之措施。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 日本公平交易委員會公布資料市場競爭政策檢討會報告書,提出建構資料市場公平競爭環境之政策建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8743&no=64&tp=1 (最後瀏覽日:2025/08/18)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院「隱私框架1.0版」

  美國國家標準與技術研究院(NIST)於2020年1月16日發布「隱私框架1.0版」(NIST Privacy Framework Version 1.0),為促進資料的有效利用並兼顧對隱私權的保障,以風險管理(risk management)的概念為基礎建構企業組織隱私權管理框架。本隱私框架依循NIST於2018年所提出的「健全關鍵基礎設施資安框架1.1版」(Framework for Improving Critical Infrastructure Cybersecurity Version 1.1)架構,包含框架核心(Core)、狀態評估(Profile)與實施層級(Implementation Tier),以利組織能夠同時導入隱私與資安兩種框架。由隱私框架核心所建構的風險管理機制,透過狀態評估來判斷當前與設定目標的實施層級,進而完成組織在隱私保護上的具體流程與資源配置。   NIST基於透明、共識、兼顧公私利害關係人的程序訂定本隱私框架,用以促進開發者導入隱私設計思維(privacy by design),以及協助組織保護個人隱私,其目標包含透過支持產品或服務設計中的倫理決策(ethical decision-making)及最小化對隱私的侵害來建立客戶的信任;在當前與未來的產品或服務中,因應持續變化的技術與政策環境遵守對隱私的保護義務;以及促進個人、企業夥伴、稽核者(assessor)與監管者(regulator)在隱私權保護實踐上的溝通與合作。   本隱私框架並非法律或法規,亦不具備法律效果,而是做為數位時代下NIST協助企業導入隱私權管理制度的參考工具,企業或組織將能基於本隱私框架靈活應對多樣化的隱私需求,掌握其產品或服務所隱含的隱私權侵害風險,並識別隱私權相關法律規範,包含加州消費者隱私法(California Consumer Privacy Act)與歐盟一般資料保護規則(General Data Protection Regulation, GDPR)等,提出更具創新性與有效性的解決方案,並有效因應AI與物聯網技術的發展趨勢。

澳大利亞政府擬修正《支付系統管理法》將數位支付,如Apple Pay、Google Pay納入法律規範中

澳大利亞國庫部(Department of the Treasury)於2023年10月11日發布《支付系統管理法》(Payment Systems(Regulation)Act 1998)修正草案,擬擴張法案適用主體,將Apple Pay、Google Pay等數位支付或提供此項支付服務事業納入規範,其目的在於提升企業的開放性及責任,並關注大型科技企業在其中扮演的角色。 本次修正案中,將修改現行支付系統的定義及適用主體,擴大至提供支付服務平臺企業,將被視為金融機構受到拘束,並授權澳大利亞準備銀行(the Reserve Bank of Australia,下稱RBA)監管數位支付平臺。修正草案內容整理如下: 1.重新定義「支付系統」。現行法定義為「透過任何形式或方式促進貨幣流通的系統」,草案則納入非貨幣(non-monetary,如數位貨幣)及提供便利支付服務的支付平臺系統。 2.擴大「參與者」定義。現行法規中參與者僅包含管理、運作支付系統的企業,草案則擴張至與支付價值鏈(payments value chain)具直接或非直接相關連之所有企業。 3.現行規範中,僅RBA在可能涉及使用者財務安全及公共利益(下述)考量時,有指定支付系統的職權,並有權監管該支付系統,包含決定新參與者的加入、訂定制度內參與者應遵守的標準及指引、對相關爭議問題進行仲裁等。修法後國庫部部長(Minister)將擁有相同權力。規範所稱之「公共利益」,指有助提升財務安全、高效率並具有競爭性,且不會導致金融體系風險增加。 4.提高法案中刑事處罰的罰金金額。現行法規授權RBA訂定支付制度之相關標準及指引,若制度內參與者未依標準或指引行事,RBA會提出要求企業為特定行為或不行為之指示,仍未依循可能會科處澳幣5,500元的罰金(約臺幣11萬3千元),修法後將提高至2倍,惟罰金之處罰權最終仍須法院審判決定。 我國針對電子支付產業有電子支付機構管理條例、金融消費者保護法規範,並要求第三方支付服務業者落實洗錢防制法規定,避免淪為洗錢或地下匯兌工具,未來可持續觀察澳大利亞及其他國家對於支付平臺議題之討論及發展趨勢,作為我國評估相應治理措施及手段參考基礎。

歐洲議會於2022年初通過數位服務法(DSA)

  歐洲議會(European Parliament)於2022年1月20日通過數位服務法(Digital Services Act),該法旨在監管線上服務提供者(online service providers),為線上服務接受者提供更安全線上空間,包含要求線上平臺應(1)打擊線上非法服務或內容;(2)提供通知並刪除/下架(notice and action)機制,不得有差別性或任意性對待;(3)提供無廣告追蹤(tracking-free ad)選項,和禁止將未成年人資料用於定向廣告(targeting advertising);(4)對於線上平臺課以行政責任,如:超大型線上平臺(very large online platforms, VLOP)若故意或過失違反義務,最高罰鍰可被處以前一會計年度總營業額6%,或按日連續處罰最高可處前一會計年度平均每日營業額5%。若可能致危害生命或人身安全,主管機關亦可勒令其停止提供服務;(5)強制性風險評估和提高演算法透明度,以打擊有害內容(harmful content)和虛假資訊。   數位服務法所規範的服務主要有四種類型,四種服務提供者負擔累計義務(cumulative obligation),其中VLOP被賦予最多責任,因其對於散布非法內容並造成社會危害具有特殊風險,須具備風險減緩、獨立稽核等機制。相關服務定義如下: (1)中介服務提供(Intermediary Service):提供網路基礎建設服務。 (2)託管服務提供(hosting service):由服務接受者提供資訊並應其要求提供資訊儲存服務,例如:雲端儲存服務、網站主機代管等服務。 (3)線上平臺(online platform):包含類型線上市集、應用程式商店、以及社群媒體平台。 (4)VLOP:每月平均歐盟境內活躍用戶達4500萬以上或人口10%之線上平臺。例如:Google、Facebook及YouTube。   此數位服務法草案最早在2019年年底提出,歐洲議會於今年投票通過後,尚待歐盟理事會(Council of the European Union)審查同意後,此法即正式發布施行。歐洲議會於審查所提出之修正建議,除針對前述五大重點外,還特別強調對於微中小型企業(MSMES)相關義務的免除,以及禁止線上平臺使用欺瞞(deceiving)或助推(nudging)方法影響消費者購物選擇。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP