歐洲法院2017年12月認定Uber是運輸服務業

  巴塞隆納計程車工會認為Uber未受西班牙運輸服務業相關法令管制,而有違反公平競爭之虞,因此向西班牙巴塞隆納3號商事法院提起訴訟。3號商事法院認為有必要進一步釐清Uber之商業模式究竟是否為歐盟法令下之運輸服務業或資訊服務業,亦或兩者均是。這將影響歐盟內部市場指令和電子商務指令之涵蓋範圍,從而決定Uber是否有違反競爭法。

  為此,歐洲法院在2017年5月做出先行裁決後,於同年12月做出判決,認定Uber之性質是運輸服務業,因此排除前述指令之適用,應接受各國運輸服務業相關法令之要求,否則違反公平競爭。法院觀點認為縱然其商業模式看似乘客與駕駛之間為自由選擇之連結。然而,Uber提供的平台是這個連結不可或缺的關鍵以外,對於運輸服務的提供,包括價格、車輛、駕駛的選擇具有決定性的影響力。此外,Uber藉由組織這樣的運輸服務來獲取利潤本身就涉及了運輸服務的直接提供。所以Uber整體服務的主要組成部分必須被視為以運輸服務構成,不應被分類為資訊服務。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐洲法院2017年12月認定Uber是運輸服務業, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7965&no=64&tp=1 (最後瀏覽日:2026/04/19)
引註此篇文章
你可能還會想看
WhatsApp因違反GDPR遭愛爾蘭資料保護委員會開罰2.25億歐元

  愛爾蘭資料保護委員會(Data Protection Commission,DPC)於今(2021)年9月宣告WhatsApp Ireland Limited(下稱WhatsApp)違反歐盟一般資料保護規則(General Data Protection Regulation,GDPR)並處以高額裁罰。   DPC自2018年12月起主動調查WhatsApp是否違反GDPR下的透明化義務,包括WhatsApp透過其軟體蒐集用戶與非用戶的個人資料時,是否有依GDPR第12條至第14條提供包括個資處理目的、法律依據等相關資訊,以及該資訊有無符合透明化原則等,其中又以WhatsApp是否提供「如何與其他關係企業(如Facebook)分享個資」之相關資訊為調查重點。   歷經長時間的調查,DPC作為本案領導監管機關(lead supervisory authority),於2020年12月依GDPR第60條提交裁決草案予其他相關監管機關(supervisory authorities concerned)審議。惟DPC與其他相關監管機關就該裁決草案無法達成共識,DPC復於今年6月依GDPR第65條啟動爭議解決程序,而歐洲資料委員會(European Data Protection Board)在同年7月對裁決草案中的疑義做出有拘束力之結論,要求DPC提高草案中擬定的罰鍰金額。   DPC最終在今年9月2日公布正式裁決,認定WhatsApp未依第12條至第14條提供資訊予「非軟體用戶」之資料主體,而「軟體用戶」的部分也僅有41%符合規範,嚴重違反GDPR第5(1)(a)條透明化原則。據此,以母公司Facebook全集團營業額作為裁罰基準,DPC對WhatsApp處2.25億歐元之罰鍰,為GDPR生效以來第二高的裁罰,並限期3個月改善。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

數位資產正式納入美國懷俄明州州法,並將虛擬貨幣視為金錢

  美國懷俄明州(Wyoming)於2019年1月18日提出S.F. 0125法案,經參眾議院三讀及州長簽署通過後,將在同年7月1日生效,代表數位資產(digital assets)正式納入懷俄明州州法第34編第29章。該法定義數位資產為表彰經濟性、所有權或近用權,並儲存於可供電腦讀取之格式(computer readable format)中,又區分為數位消費資產(digital consumer assets)、數位證券(digital securities)及虛擬貨幣(virtual currency)等三類。   數位消費資產,是指為了消費、個人或家用目的使用或購買的數位資產,包含:(1)除法律另有規定外,開放區塊鏈代幣(open blockchain tokens)視為個人無形資產(intangible personal property),(2)非屬本章數位證券和虛擬貨幣範圍內之數位資產;數位證券則是指符合懷俄明州州法第17編第4章有價證券定義的數位資產,但排除數位消費資產及虛擬貨幣;又,虛擬貨幣是指使用數位資產作為交易媒介(medium of exchange)、記帳單位(unit of account)或具儲存價值(store of value),且尚未被美國政府視為法定貨幣(legal tender)。   本次修法規定數位資產均為個人無形資產,另將數位消費資產視為該州州法下之一般無形資產,數位證券視為該州州法下之有價證券及投資性財產,虛擬貨幣則視為金錢,有論者表示本次修法有助於促進數位資產流通,並鼓勵各州跟進修法。然此舉是否有助於該州推行數位資產產業,尚待持續觀測,始能得知其對業界與政府監管所造成之影響。

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

TOP