歐盟執行委員會與蘋果和解 承諾開放第三方行動錢包

歐盟執行委員會(European Commission,下稱執委會)於2024年7月11日宣布與蘋果公司和解並接受蘋果公司提出的承諾,未來十年在歐洲經濟區(European Economic Area, EEA)內允許第三方行動錢包提供者存取iOS裝置的NFC(Near-Field-Communication)功能,並設有監督受託人(monitoring trustee)進行監督。

自2020年6月執委會對蘋果公司啟動反壟斷調查,並於2022年5月執委會提出聲明認為蘋果公司在iOS裝置行動錢包市場具有主導地位,對競爭對手產生排他性影響,涉及違反《歐盟運作條約》(Treaty on the Functioning of the European Union, TFEU)第102條禁止濫用市場地位規定。蘋果公司為解決涉及違法問題,於2024年1月承諾提供第三方行動錢包提供者和支付服務提供者應用程式介面(Application Programming Interfaces, APIs)存取iOS裝置的NFC功能,並經由執委會1個月的第三方意見諮詢後,蘋果公司根據該意見修改部分內容,並提出以下承諾:

● 提供終端設備支付功能。

● 取消存取NFC功能的資格條件。

● 允許第三方行動錢包提供者為存取NFC功能預先設置支付應用程式。

● 持續更新架構以符合行業標準。

● 允許開發者提示使用者設定預設支付應用程式並導向設定頁面。

● 縮短爭端解決期程。

● 由監督受託人提供獨立性及程序保證。

執委會認為蘋果公司提出的承諾能有效解決蘋果公司限制第三方行動錢包提供者在iOS裝置提供NFC支付功能的競爭,執委會與蘋果公司和解並承認該承諾對蘋果公司產生法律約束力,監督受託人將定期向執委會報告,執委會與蘋果公司和解並結束為期4年的調查,但蘋果公司仍須承擔《數位市場法》(Digital Markets Act)等其他法規之義務。

相較於Android系統開放NFC功能提供行動錢包存取,iOS系統對行動錢包存取NFC功能有所限制,澳洲競爭與消費者委員會(Australian Competition and Consumer Commission)及美國司法部對於蘋果公司壟斷iOS裝置的行動錢包市場也展開調查或訴訟,蘋果公司面臨行動錢包市場競爭的挑戰,在歐洲經濟區內可能掀起行動錢包市場競爭的蓬勃發展,是否帶動在其他國家或地區的法制政策改變,可持續觀察各國行動錢包市場動態。

相關連結
※ 歐盟執行委員會與蘋果和解 承諾開放第三方行動錢包, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9243&no=55&tp=1 (最後瀏覽日:2026/03/30)
引註此篇文章
你可能還會想看
新加坡通過2010年版電子交易法施行細則

  繼新加坡2010年版本電子交易法(Electronic Transactions Act, ETA)於2010年7月1日式施行後,該國資通訊發展局(Info-communications Development Authority, IDA)因應修正電子交易法施行細則,該細則並於2010年11月1日起正式實施。其目的在使憑證機構管理制度得以配合新興資訊安全技術齊驅發展,進而使其與國際趨勢相符,修正要點如下:   1. 修正許可制為志願許可制:此次修正最大變革即在使該國憑證機構管理制度由原本的許可制,改為志願許可制。前者係使所有憑證機構均應向主管機關申請許可後,始能對外簽發憑證;而志願許可制則是原則上憑證機構對外簽發憑證無需主管機關許可,但憑證機構如果希望所簽發之憑證具備特定法律效果,則仍須經過許可。   2. 證據法上的推定效果:經過自願申請許可通過的憑證機構,經其所簽發之憑證而製作的數位簽章將有證據法上推定為真之效力,無待憑證用戶舉證即有其真實性,惟該真實性仍可由他方另舉反證推翻。換句話說,若數位簽章製作人使用的憑證為一般未經申請許可之憑證機構所簽發者,憑證用戶需先向法院提出其他輔助證據證明該簽章真實性。   3. 許可申請之要求:憑證機構自願申請許可時,應繳交申請費1千元新加坡幣(下同)及2年有效之許可執照費1千元。此外,新版施行細則統一整合舊有之「安全指導手冊」(Security Guideline)及其他各項稽核規定於「稽核需求要項表」(Compliance Audit Checklist),以供憑證機構得以更便利之方式了解並遵循共通之稽核程序。

歐盟質疑Google新訂網路隱私權政策服務條款

  2012年3月,Google 公告使用者的新網路隱私權政策條款,這項措施將Google 所提供的各項服務適用同一個隱私權政策,並整合多項服務於同一帳號之中,隨著隱私權政策的變動,使用者條款也一併更新,這項措施並同時透過電子郵件通知所有的使用者。然而,Google 此項新政策在歐洲地區實施時卻碰到困難,歐盟表示該隱私權條款適法性受到質疑,將可能受到有關單位的調查。   歐盟資料保護相關指令乃建構基礎架構規制網路使用者個人的隱私,相關機構與業者都必須遵守。關於此項Google 新隱私權政策條款,規定使用者的資料可以合併使用於各個不同的服務中,將可能造成使用者的個人資料將可能透過不同的服務而洩漏,並且遭受第三人使用,而有違反歐盟資料保護指令之虞。針對此問題,法國資料保護管理機構(The Commission Nationale de l'Informatique, CNIL)已對Google 提出詢問,詢問的內容包含Google是如何保存使用者的資料;如何將使用者於不同服務中揭露的資訊加以整合等問題。由於既存的使用者若要繼續使用Google相關服務,就必須同意該新訂隱私權政策條款,因此CNIL也透過此次機會了解使用者退出資料不被揭露的機制內容,以避免使用者在未經同意下個人隱私受到侵害。不過,屆至目前為止,包含英國在內的歐洲各國仍普遍認為,該隱私權政策條款並未充分賦予使用者掌握個人資料的權限。   相較於歐盟,美國聯邦交易委員會(Federal Trade Commission, FTC)對於使用者於使用網路時隱私權的保護,著重於業者隱私權保護的承諾;亦即歐盟著重於隱私權為個人基本權利,而美國普遍要求網路業者能於條款中,明確承諾保護使用者使用網路時的各項權利。無論如何,各國對於保護使用者使用網路服務的原則與概念雖然不同,但對於使用者資訊揭露的透明化要求均為一致。

歐洲專利局《2023年戰略計畫》

  歐洲專利局(The European Patent Office, EPO)於2019年6月27日發布《2023年戰略計畫》(Strategic Plan 2023, SP2023),協助歐盟應對網路化和全球化的世界挑戰。該戰略計畫之重點為實現專利局五大策略目標,分別為:員工參與(staff engagement)、資通訊現代化(modernisation)、品質(quality)、歐洲專利網路(European patent network)和永續性(sustainability)。   該五大策略目標分述如下: 建立一個參與性、知識性及協作性的組織:幫助員工發揮其專業領域,以及重視識別、招募和留才之方法。 進行EPO 資通訊系統的簡化與現代化:包含支持端到端的電子專利授權流程、對現有技術數據庫進一步投資、並關注亞洲相關文獻與標準。 效率化提供高品質流程與服務:確保EPO的專利審查或其他作業流程及服務維持高標準,例如建立辦公室品質管理系統(QMS)和「早期確定」計畫(Early Certainty),加速專利核准程序。 建立具有全球影響力的歐洲專利制度和網路:加強歐盟成員國與歐盟以外國家專利局之合作,並定期檢視歐洲專利局對其他國家的財務與營運支援,在加強國際參與度與成本效益之間達到平衡。 確保長期發展與永續:歐洲專利局擬建立觀察站(Observatory)作為一提供利害關係人進行討論和分析的平台。該平台將為減少碳排放、降低能源消耗、降低紙張消耗以及減少使用塑膠等訂定明確長期目標。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP