歐盟發佈Amazon違反反托拉斯法之初步調查結果,並將對其電商業務展開第二輪調查

  歐盟執委會於2020年11月10日對Amazon發佈反托拉斯調查之初步調查結果,針對其2019年7月之首次調查提出調查意見書(Statement of Objections, SO),認定Amazon使用大量非公開賣家資料,減少自身作為零售商之競爭風險,相關可能違反歐盟運作條約(TFEU)第102條禁止濫用市場主導地位。

  歐盟於2019年7月17日對Amazon展開首次反托拉斯調查。Amazon作為平台,具有雙重身分,第一個身分是作為零售商,在網站上銷售商品;第二個身分是作為平台商,提供第三方賣家銷售商品的市場。因此歐盟認為Amazon在平台上收集價格或活動統計資料,將調查Amazon和第三方賣家的標準協議中,是否允許Amazon分析賣家的買賣統計資料?以及第三方賣家使用「黃金購物車」(Buy Box)的機制為何?

  歐盟執委會調查說明,Amazon作為平台,可以大量使用第三方賣家資料,例如訂購及發貨數量、賣家收入、報價次數、物流資料、賣家表現評價、消費者索賠資訊等。然而相關統計數字及資料進入Amazon業務自動化系統,使Amazon零售業務可以大量使用上述非公開資料,以調整自身產品零售報價和業務決策,降低自身作為零售商的市場競爭風險。

  此外,歐盟執委會認為,Amazon的「黃金購物車」和「Prime label」機制,使平台上的第三方賣家必須選擇使用Amazon物流、倉儲和售後服務(Fulfillment by Amazon, FBA),才能取得平台的「黃金購物車」和「Prime label」標章,才可能增加產品搜尋曝光度、交易成功率,進而提高銷售量(據統計,Amazon平台超過八成之交易是透過黃金購物車完成)。因此導致消費者大多選擇購買曝光度高、也就是使用Amazon物流的賣家,形成賣家之間的不公平競爭。歐盟執委會後續將啟動第二輪調查,且未言明結束調查時間。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟發佈Amazon違反反托拉斯法之初步調查結果,並將對其電商業務展開第二輪調查, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8589&no=55&tp=1 (最後瀏覽日:2026/03/01)
引註此篇文章
你可能還會想看
美國紐約東區聯邦地區法院裁定加密貨幣屬商品交易法中的大宗商品

  美國商品期貨交易委員會(Commodity Futures Trading Commission ,CFTC) 在2015年09月宣布將比特幣等加密貨幣歸類為美國商品交易法(Commodity Exchange Act ,CEA)中的大宗商品(commodity),與黃金、原油或小麥的歸類一樣,受到委員會的監管,範圍包含在衍生商品契約(derivatives contract)中使用比特幣,或在州際貿易中使用比特幣為詐欺或人為操作(manipulation),自此CFTC開始追查從事加密貨幣衍生商品交易行為,卻沒有註冊的公司。   2018年01月時CFTC起訴Coin Drop Markets公司和其執行長Patrick K. Mcdonnell利用經營加密貨幣期權投資顧問公司,向投資人行銷若接受其投資建議將可獲得200%以上的報酬,卻從未於收取顧客諮詢費後提供任何諮詢服務,並接著關閉公司網站與社群媒體,該公司亦未向CFTC申請註冊,違反美國商品交易法。   對此美國紐約東區聯邦地區法院(Eastern District of New York)的法官Jack Weinstein於2018年03月06日裁定,認定加密貨幣屬市場交易時能保有一致的品質與價值的貨品(goods),具有價值保存(store of value)、金融交易(monetary exchange)的特質,且價格跟大宗商品一樣隨著人們的需求而有起伏變動,符合商品交易法對「商品」包含有形與無形的貨品、服務、權力與利益等的廣泛定義。   由於加密貨幣屬於商品交易法的適用對象,CFTC可對涉及衍生商品市場與現貨市場(Spot Market)的詐欺或操縱行為進行監管。基於以上理由,法院同意CFTC對Coin Drop Markets公司和執行長Patrick K. Mcdonnell的預防性禁制令(preliminary injunction)請求,禁止其繼續參與大宗商品交易。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

歐盟智慧財產服務台提供中小企業「掌握智慧財產權五步驟」的建議,以助其最大化IP價值

歐盟智慧財產服務台(European IP Helpdesk)於2023年7月10日提供中小企業「掌握智慧財產權五步驟」的建議,以協助中小企業最大化IP價值。五步驟如下: (1)盤點企業擁有的IP數量及排定優先順位:企業應盤點其擁有的專利、商標、設計、著作權、營業秘密等的數量,並根據IP對企業成功的重要性進行排序。 (2)進行IP查核:企業應就其所擁有的智慧財產組合(IP Portfolio)進行詳盡的檢視,以評估其優、劣勢;企業應辨別出目前其智慧財產組合所可能遭受危險的地方,並評估其目前擁有的智慧財產組合,若其中有改以其他IP保護者,則風險可能為何。 (3)制定IP保護計畫:根據上述(2)的查核結果,企業應發展出一套IP保護政策,此並應包含「可監控及執行其IP,藉以排除他人侵權行為」的情形。同時,企業也應檢視自己的IP有無侵犯到他人的權益,例如透過「自由運營分析」(Freedom-to-Operate analysis)的方式,來進行專利侵權風險排查。 (4)將保護計畫付諸行動:企業應執行上述計畫,並確保其員工係對此等政策及措施有所認知。除此之外,亦應對員工施以教育訓練,以使其知道「IP保護的重要性」及「辨別潛在侵權行為的最佳方法」。 (5)保護計畫之檢視及更新:企業應時時檢視其IP保護計畫及進行更新,以確保其整體IP策略係與企業發展目標一致。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP