用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9050&no=57&tp=1 (最後瀏覽日:2026/04/26)
引註此篇文章
你可能還會想看
歐盟執委會發布「再生能源:歐洲能源市場的重要角色」產業推動報告

  歐盟執委會於2009年4月23日發布再生能源指令(DIRECTIVE 2009/28/EC),目標在2020年達成20%的再生能源利用;並於2011年1月31日發布「再生能源:邁向2020目標」(Renewable Energy: Progressing towards the 2020 target)通訊報告,檢視歐洲再生能源產業概況及所面對的挑戰,透過與「歐洲及國家再生能源領域之財務檢視」(Review of European and national financing of renewable energy in accordance with Article 23(7) of Directive 2009/28/EC)、「運輸領域使用生質燃料及其他再生燃料的發展及技術評估」(Recent progress in developing renewable energy sources and technical evaluation of the use of biofuels and other renewable fuels in transport in accordance with Article 3 of Directive 2001/77/EC and Article 4(2) of Directive 2003/30/EC)及「生質燃料及生質燃油永續計畫報告」(Report on the operation of the mass balance verification method for the biofuels and bioliquids sustainability scheme in accordance with Article 18(2) of Directive 2009/28/EC)等三份報告的結合,瞭解再生能源領域發展所須的支出、確保其品質、運用最有效率及最具經濟效益的手段,架構歐洲再生能源利用之2020年目標。   為達此一目標,各會員國自行採取相關措施加以推動,每年投入的資金呈倍數的成長;然在2020年之後,卻未見相關政策規劃。為持續發展再生能源,執委會於2012年6月6日發布「再生能源:歐洲能源市場的重要角色」(Renewable Energy: a major player in the European energy market)通訊報告,呼籲各會員國在相關計畫的建立與改革採取更協調一致的措施,提升會員國間再生能源的交易,並探討2020年之後再生能源的發展框架。此一通訊報告包含兩部分:第一、為達2020年的再生能源發展目標,指出四個須加速推動的領域;第二、開始思考2020年後之規劃框架。   針對應加速推動以達成2020年發展目標的四大領域,包括(1)能源市場、(2)支援計畫(support schemes)、(3)合作機制、(4)地中海區能源合作計畫。歐盟執委會堅持達成境內能源市場的整合,並認為有必要提供投資獎勵,以順利進行。對於相關支援計畫,應鼓勵降低成本並避免過度補貼;由於支援計畫多由各國政府主導,而各國可能有缺乏透明度、突然終止、甚至補助差異,造成市場運作模式的阻礙,因此執委會呼籲透過跨國的合作來解決。此外,執委會鼓勵增加合作機制,使會員國間能透過再生能源的交易、降低成本,以達成再生能源利用目標。針對地中海區的能源合作計畫,執委會建議改善其管理框架,並著重於整合馬格里布地區(Maghreb)的市場,將有助於大規模投資,進口再生能源電力。   針對2020年後之發展,則應兼顧創新與降低成本,促進對再生能源的投資。依據歐洲「2050能源路徑圖」(Energy Roadmap 2050)之規劃,開始探討邁向2030的發展策略,主要仍以溫室氣體排放、再生能源及能源效率為政策目標。執委會強調,儘速確定2030年的發展規劃至關重要,此規劃並應使再生能源業者在能源市場上提升其競爭力。

5G汽車協會發布《道路使用者保護白皮書》

  5G汽車協會(5G Automotive Association, 5GAA)於2020年8月24日發布「弱勢道路使用者保護白皮書」(Vulnerable Road User Protection),點出目前道路交通安全對相關道路使用者保護不足,同時揭示未來車聯網(V2X)可提供整體用路人更安全之道路交通環境。   白皮書指出,道路安全是交通政策關鍵,應透過科技技術與政策制定,共同實現道路安全目標。而根據目前統計數據,弱勢道路使用者(Vulnerable Road User,以下簡稱VRU),包含:「行人」、「騎自行車者」、「騎電動車者」、「道路施工者」、「輪椅使用者」及「滑板或是單輪車使用者」,其占交通事故之傷亡比例最高,幾乎超過半數之死亡人數均為VRU,未來更可能因環境或與健康因素,使道路交通使用者數量不斷提升,對VRU之保護將成為未來各國交通之關鍵。   技術層面,則是車輛感測器偵測VRU、路側設備(Roadside Unit, RSU)、行動邊緣計算技術(Mobile Edge Computing, MEC)等,並進一步應用於車聯網下之不同案例情況:(1)高度風險區域:例如車輛進入行人密度極高的地區,透過感測器發出警訊,以即時警惕人車彼此存在,降低視線死角之事故發生率。(2)VRU與車輛透過裝置溝通:如車輛與VRU之間透過手機等設備傳輸相關資料並通訊。(3)車輛透過安全演算系統與VRU及各項設施交換訊息:此項涉及車聯網通訊應用下,車與車(V2V)和車與交通基礎設施(V2I)通訊,透過C-V2X PC5通訊技術軟體,使車輛、基礎設施與VRU之隨身電子設備之間得以進行通訊,降低事故碰撞發生。   綜上,未來應建立國際通用的車聯網之弱勢道路使用者保護標準,而非因區域而不同之標準,如目前美國汽車工程師協會之個人安全訊息標準(Personal Safety Messages, SAE PSM)及歐盟電信標準協會之弱勢道路使用者分布(Vulnerable Analysis Mapping , ETSI VAM),兩者在保護上即有所差異。VRU之保護服務是未來車聯網應用之關鍵與道路交通安全核心目標之一,相關系統與感測技術亦在不斷提升,未來更能融合感測器技術,並預測行人可能路徑,將全面提升道路安全。

歐盟創新採購機制觀測

新加坡發布《應用程式分發服務安全準則》以強化應用程式用戶保護

為降低應用程式(App)用戶接觸有害內容的風險,新加坡資通訊媒體發展管理局(Infocomm Media Development Authority,IMDA)發布《應用程式分發服務安全準則》(Code of Practice for Online Safety for App Distribution Services),要求應用程式分發服務(App Distribution Services,ADSs)採取必要防護措施,並導入年齡驗證機制,以進一步強化兒童保護。該準則將於 2025 年 3 月 31 日 生效。 本次IMDA依據《廣播法》(Broadcasting Act)第45L條所發布之《應用程式分發服務安全準則》,係為進一步強化對App用戶的保護。ADSs作為數位裝置存取應用程式的主要入口,是許多網路內容(例如線上遊戲)的上架平台,當用戶透過 ADSs下載App的比例提高,其接觸不當內容的風險亦增加。因此,新加坡要求指定業者建立安全措施,以降低用戶接觸不當內容的風險。被指定業者包括:Apple App Store、Google Play Store、Huawei AppGallery、Microsoft Store及Samsung Galaxy Store等。該準則亦要求ADSs業者建立年齡驗證機制,訂定年齡分級標準並限制兒童存取及下載不適齡的App,同時強化家長控制功能。這一措施讓新加坡成為全球首批強制推動年齡驗證的國家或地區之一,其他國家包括澳洲、歐盟、英國及美國。IMDA 亦將持續與ADSs 業者溝通,確保其有效落實年齡驗證機制。 早在2023年1月,新加坡已於《廣播法》中將線上通訊服務納入規範,政府可要求業者封鎖惡性內容(egregious content),確保網路環境安全並保護兒童免受不當內容影響。此外,依據《網路安全準則》(Code of Practice for Online Safety),政府可要求指定社群媒體服務業者(如Facebook、Instagram、TikTok、Twitter與YouTube等)降低用戶接觸有害內容的風險。 為因應日益增加的有害線上內容,新加坡未來將持續與相關政府機構、產業及社群合作,推動適當的監管措施與公共教育,以確保新加坡用戶免受線上風險侵害。

TOP