韓國公平交易委員會推動制定《平臺競爭促進法》

韓國公平交易委員會(Fair Trade Commission, FTC)於2023年12月19日宣布將制訂《平臺競爭促進法》(Platform Competition Promotion Act, PCPA),針對市場中大型線上平臺業者,提前認定為具有市場主導地位,禁止提供優惠待遇(preferential treatment)及搭售(tie-sale)等不公平競爭行為,保護小型企業及避免消費者受到大型線上平臺業者壟斷市場的影響。

《平臺競爭促進法》將透過營業收入、使用者數量、市場份額及市場參進障礙等特定條件,認定平臺業者是否具有市場主導地位,被指定具有主導地位的業者則會被禁止從事以下行為:(1)自我偏好行為,禁止平臺業者在平臺上以較競爭者更有利之方式,曝光其本身販售的產品;(2)搭售行為,迫使平臺使用者在購買平臺所提供的產品或服務時,必須同時購買其他產品;(3)限制多棲(multi-homing)或禁止使用者使用其他平臺;(4)要求比其他平臺更優惠的交易條件。

依據韓國《公平交易法》現行法規規定,企業從事不公平競爭行為,最多僅能處以其營業額6%的罰鍰;若於《平臺競爭促進法》制定後,被認定具有市場主導地位的平臺業者從事不公平競爭行為時,將依《平臺競爭促進法》最高可處其營業額10%之罰鍰。平臺業者被委員會指定為具市場主導地位的平臺時,業者仍可在(1)指定前提交意見;(2)指定後提出異議,或以(3)提出行政訴訟等方式保障其權利。

我國公平交易委員會於2022年12月提出數位經濟競爭政策白皮書,內容包含數位經濟下可能面臨的議題及執法立場與方向。近來韓國科技產業與社會經濟發展屢次成為我國相關產業比較對象,未來可持續關注韓國對於跨領域科技產業影響市場公平競爭之治理發展,作為我國因應數位經濟競爭法相關議題之參考基礎。

相關連結
※ 韓國公平交易委員會推動制定《平臺競爭促進法》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9151&no=67&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
歐盟將公布精準醫療國際合作發展倡議

  歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。   歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。   為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備   IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。

政府科研計畫執行與貪污犯罪

演算法歧視將適用於《紐澤西州反歧視法》

2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP