中國大陸「網路預約出租汽車經營管理暫行辦法」

  所謂中國大陸《網路預約出租汽車經營管理暫行辦法》,是指中國大陸針對目前在各國都陸續發生法律爭議的網路出租車叫車平臺,例如源自美國加州舊金山的優步(Uber),或是中國大陸當地發展的滴滴打車服務,所制定的專法規範,以期解決網路出租車叫車平臺所可能產生的法律爭議。

  類似Uber的服務型態,之所以會產生法律爭議,主要是因為汽車運輸載客的商業行為,在各國都會受到汽車運輸業的相關管制,以保障運輸服務乘客安全及消費權益。以德國為例,就曾因此對Uber進行行政處罰,並進一步於司法判決中要求Uber司機需取得營運牌照。

  也因此中國大陸交通運輸部在2016年7月14日通過,並於2016年11月1日起施行《網路預約出租汽車經營管理暫行辦法》,該規定將網路預約出租汽車服務定義為「預約出租客運」,平台業者需負擔車輛營運、收益分配與司機管理等等的任務,且其地位為中國大陸汽車運輸載客法規中的客運服務承運人,需負擔相當責任,而並非如Uber等所主張的其僅為仲介平台,不具客運服務承運人之地位。

  此外,該辦法亦要求網路預約出租汽車之司機應滿足無交通肇事犯罪紀錄、無危險駕駛犯罪紀錄、無吸毒紀錄、無飲酒後駕駛紀錄、無暴力犯罪紀錄等條件。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 中國大陸「網路預約出租汽車經營管理暫行辦法」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=7636&no=55&tp=5 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
德國聯邦法院裁判臉書之Find Friends功能違法

  德國消費者組織聯盟(Federation of German Consumer Organisations , 以下簡稱VZBV)針對臉書(Facebook)的”find friends”功能向該公司發出警告信。臉書的”Find friends”功能為使用者先在該社群網站上輸入自己的email後,再選擇其與朋友的聯繫管道,如yahoo信箱、skype等。臉書將儲存使用者所上傳的聯絡人資訊,並用以協助使用者尋找朋友,或者透過居住地、學校、工作場所等搜尋要件,協助使用者找尋好友。然而,在臉書未有任何修正的情況下,VZBV向柏林地方法院控告臉書並獲得勝訴,之後臉書向上訴法院提起上訴,但於2014年01月24日遭到駁回。2016年01月14日,德國聯邦法院維持下級審法院判決,裁判臉書的” Find friends”功能牴觸德國隱私權保護與消費者保護之法律。 (一)德國聯邦資料保護法(Bundesdatenschutzgesetz,BDSG)   法院認為該項功能違反德國聯邦資料保護法,蓋因臉書未能在收集或利用使用者以及非使用者的資料前,事先取得其同意。此外,臉書的契約條款中亦未提供使用者適當程度的通知,讓使用者知道他們的資料將會被如何使用。 (二)德國不正競爭防制法(Gesetz gegen den unlauteren Wettbewerb, UWG)   法院認為,臉書在利用使用者資料並且寄發廣告郵件給非臉書會員時誤導使用者,讓使用者以為這個功能是受到限制的,亦即使用者誤認僅有其臉書上的朋友才在搜尋範圍之內。然而,臉書實際上更寄發邀請廣告郵件給其他非臉書的使用者。由於德國不正競爭防制法第五條第一項規定,採取引人錯誤的交易行為,其行為構成不正當。此外,該法第七條亦規定,具訊息之廣告,其掩飾或隱匿委任傳送此訊息之發送人的身分, 即被視為不合理之煩擾。又以不合理之方式來煩擾市場參與者之交易行為,不得為之。因此,其被認定構成德國不正競爭防制法第五條”引人錯誤的交易行為”以及第七條"不合理之煩擾"。   本案從2010年開始直至聯邦法院裁判結果出爐前,”find friends”功能已有修正,然而VZBV認為這些修正並不足夠。在2016年的這份裁判出爐後,facebook將如何修正及調整商業模式,以符合德國法律之規定值得持續關注。此外,許多社群網站如LinkedIn亦有類似功能,該裁判結果對於這些網站的商業運作,將造成如何的影響亦應持續追蹤。

美國馬里蘭州法案禁止雇主近用(access)其員工及應徵者之社群網站資訊

  日前報導指出,在美國有部分的企業在面試時要求應徵者交出其臉書(Facebook)帳號及密碼,以供企業做為評估是否錄取之參考。企業這樣的舉動,遭論者類比為要求應徵者交出自家大門的鑰匙。據悉,企業此一傾向在九一一後有明顯增加之趨勢。   為因應此一趨勢所帶來的隱私疑慮,馬里蘭州在四月初已立法(撰稿時,此法尚待該州州長簽署)禁止雇主要求瀏覽或進入員工與應徵者的臉書或其他社交網站頁面,當然也包括禁止雇主取得員工或應徵者的臉書或社交網站帳號與密碼,或企圖成為員工及應徵者的「朋友」。   馬里蘭州此一立法,除了在保護員工或求職者的隱私之外,也是為了保障言論自由;且此一看似亦在保護應徵者及員工之法律,其實對企業亦有助益:其使原本處於法律灰色地帶的爭議問題明朗化,因而可使企業瞭解應如何因應,而可避免許多不必要的訴訟。   雖然輿論對此立法有許多贊同之聲,但亦不乏反對此一立法者,例如馬里蘭州的許多商業團體即認為瞭解求職者的社交活動,對於剔除不適任的應徵者,有其必要。   馬里蘭州此一立法乃率全美之先,其他各州可能亦陸續會提出類似法案。

美國聯邦與州政府對於污染物排放超標免責立法之衝突。

  美國聯邦最高法院在2017年6月拒絕對聯邦法令-廠房之啟動,停工,與故障之許可證取得(Startup, Shutdown, Malfunction, SSM)底下之州際執行計畫(State Implementation Plans,SIPs)免責條款的上訴聽案,即各州對於SSM的污染物超標限制,無權力訂定免責條款。1聯邦法令SSM規定公司廠房等所有者或營運者需對於初始營運、日後關閉、中間故障等作業程序與維護措施做成報告以獲得並定期更新營業許可證,報告中需對於預測與計畫中的污染物排放與災難可能做說明,並以遵守聯邦法規對污染物排放相關規定為前提。2 聯邦政府當時以美國聯邦法規(Code of Federal Regulation)以及空氣清潔法案(The Clean Air Act)裡的國家周遭空氣品質標準(National Ambient Air Quality Standards) 為準則,授予各州訂定SIP的權限,因此才有各州多以促進經濟、展業發展為由而自行訂定免責條款的產生。   在原本的SSM機制下,計畫中的污染物超標可能適用各州的免責條款,而非計畫或預測中的污染物超標則會依是否有正當辯護,而可能被下禁治令。隨後,因美國前總統歐巴馬十分重視環境保護,而與美國環境保護總局(Environmental Protection Agency,EPA)頒佈新政策,下令各州把其SIP裡對於污染物超標的免責條款全部刪去。   這樣的大動作使各州政府與企業主十分不開心,便開啟了一連串與EPA的訴訟。2008年D.C.巡迴法院在Sierra Club v. EPA 3判定SSM期間內的違反污染污物排放限額不得有任何免責例外。2014年D.C.巡迴法院於Natural Resources Defense Council v. EPA 4更判定EPA沒有權限給予在SSM期間內違法業者創造任何答辯。雖然美國聯邦最高法院拒絕對此爭議聽案,但目前EPA仍有與州政府及企業主訴訟案在進行。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP