用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9050&no=64&tp=1 (最後瀏覽日:2026/01/13)
引註此篇文章
你可能還會想看
世界經濟論壇發布「融合實境中的共同承諾:促進未來網路治理」白皮書

世界經濟論壇(World Economic Forum, WEF)2024年11月19日發布「融合實境中的共同承諾:促進未來網路治理」(Shared Commitments in a Blended Reality: Advancing Governance in the Future Internet)白皮書,說明進入虛實整合的融合實境(Blended Reality, BR)時代,需取得社會共識並進行治理,透過倡導以人為本的網路治理框架並促進多方參與,以平衡技術創新與社會期待之間的差距,使網際網路持續進步。 融合實境是由延展實境(Extended Reality)、AI、物聯網(Internet of Things)、6G網路、區塊鏈等新興技術驅動而形成,融合數位與實體。現行網路治理因橫跨不同司法管轄區而有分散與破碎問題,且技術標準間之矛盾或規範落差阻礙全球協作,恐不利因應BR發展所帶來之挑戰。因此,WEF藉此白皮書提出下列8項核心承諾與目標,強調安全、包容及可持續性之發展,期望作為全球共同之治理承諾以應對挑戰: 1. 尊重人權:保障數位與實體空間中的基本人權,促進個人尊嚴、自主性及包容性。 2. 問責:明確各方責任,建立透明有效的問題解決機制。 3. 協作安全(collaborative safety):透過多方利害關係人協作加強對弱勢群體的保護並制定安全標準。 4. 資產所有權:應確保數位和實體資產的來源、真實性及相關權利保護。 5. 負責任的資料治理:透過教育與研究等方式,促進學術、政府、企業與社會間之知識共享,並建立隱私及安全機制,保障資料治理。 6. 教育與研究:支持普及科技教育和推動開放式研究,促進全球科技共享。 7. 無障礙(accessibility):改善基礎設施及多元工具的發展,以確保科技在社會各層面之平等使用與普及化。 8. 永續性:平衡經濟效益與社會及環境影響,建立長期永續發展模式。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

NIH公布最新GWAS基因型與表現型數據資料庫分享近用方針

  經過了一整年向各界諮詢與彙整各方意見後,美國國家衛生研究院(NIH)於今年8月底,公布其所資助之GWAS基因型與表現型數據資料庫(genotype-phenotype datasets)之分享近用方針。此方針希望在保障研究參與者的個人隱私前提下,協助科學研究社群取得相關基因數據資料。GWAS數據資料對科學有顯著的幫助,並具有龐大的潛在公共利益,然而,提供個人的基因型與表現型資料進行科學研究,涉及個人隱私與秘密之保護,故具有高度的敏感性而受到大眾關切。   因此,NIH在訂定這項方針時,為了搜集各方意見,首先於去年5月,宣布計畫更新GWAS的數據資料分享政策,後於去年8月公開徵詢大眾對方針之意見,次又依據所蒐集之各方意見,於去年12月針對此分享政策舉辦會議進行討論,根據這些討論所形成之共識,併同NIH內部討論之結果,最後形成此項分享政策。   方針中指出,如何在促進科學研究之目的,與保護相關參與人的權利間取得平衡,是相當重要的議題,故本方針分別對研究人員近用之程序、基因數據資料的處理與參與者權利之保護進行詳細規範。舉例來說,本方針要求欲近用資料庫的研究人員,提供其研究必須使用此資料庫的書面說明資料;另外也會對所有存放在資料庫的數據資料進行去個人化處理,使該項資訊無法再以技術判別,並使用隨機方法加密,以確保參與者的隱私與保密資料不遭外洩。根據NIH表示,此方針雖然僅是對GWAS數據資料庫的近用作規範,但未來亦有意將其作為近用其他類似資料庫的規範參考架構。

日本經產省修正《輸出貿易管理令》對南韓出口之電子原料實施嚴格管制審查

  2019年7月1日,日本經產省依據《外匯及對外貿易法(以下簡稱外匯法)》,對於產品技術的輸出與輸入進行適當之進出口管制,要求日本國內向南韓進行輸出之行為,必須通過嚴格的出口管制審查。日本經產省表示,進出口管制制度係建構在國際信賴關係的基石之上,近年來有相關產品技術輸出南韓管制不當之案例,已造成日韓兩國間信賴關係嚴重損害(例如二戰強徵勞動力的訴訟案件爭議,以及日本提供的材料可能從南韓非法轉運至北韓、被轉為軍事用途之風險等),故提出兩項政策以為反制,包括將南韓從白色國家名單移除,及提升對南韓出口管制審查標準等,具體說明如下。 1.修正日本對南韓之輸出貿易管理列表   基於《外匯法》第48條,擬修正外匯法之政令《輸出貿易管理令》附件三類別表,將南韓從日本安全保障、友好貿易夥伴的「白色國家」列表中刪除,透過監管改革嚴格審查對南韓的出口管制制度。 2.針對向南韓出口之電子原料實施嚴格管制審查與核發特定出口許可證   自2019年7月4日起,針對日本向南韓出口的三項半導體關鍵電子原料,含氟聚醯亞胺(Fluorine Polyimide)、光阻劑(Resist)、蝕刻氣體(Eatching Gas)以及轉讓相關連的製造技術等,均被排除於綜合出口許可證制度範圍外,須額外單獨申請特定出口許可證並進行出口審查。   針對日本管制措施,南韓產業通商資源部(Ministry of Trade, Industry and Energy, MOTIE)表示強烈抗議,認為日本在未提供任何具體證據的情況下逕行對南韓實施出口管制,並將南韓從白色國家名單中刪除,已違反WTO自由與公平貿易原則(Free and Fair Trade),構成貿易壁壘與歧視性差別待遇,嚴重威脅日韓經濟夥伴關係,恐將引發兩國企業及全球產業供應鏈動盪,對自由貿易造成負面影響。南韓政府已強烈要求日本取消對於出口管制的不公平措施,撤銷將南韓從白色國家名單移除之《輸出貿易管理令》修正案,同時積極尋求聯合國安全理事會介入調查。

德國法院判決,網站上“連絡我們(Contact-Formula)”非屬德國電信服務法第5條規定之電子聯繫資訊

  德國Essen地方法院判決(Az. 44 O 79/07),網站上之聯絡我們的功能(Contact-Formula),並不符合網路服務者依德國電信服務法第5條(Telemediengesetz, TMG)所應遵守之資訊揭露義務*。   根據德國電信服務法第5條第1項第2款規定,網路服務提供者之資訊揭露義務範圍,包括應提供一個供網路使用者可以快速且直接聯繫網路服務提供者之電子聯繫方式,例如提供電子郵件。   按德國電信服務法第5條規定目的在提供消費者法定之保護,而違反本條規定者,將可依德國「不正競爭防止法,UWG」第4條第11款及第2條第1項第2款規定,視為違反公平競爭之行為。   該法院認為,網站上「連絡我們功能(Contact-Formula)」性質上僅屬於一個用以製造連結的科技措施,使用者需填寫網站上表格,按下傳送鍵後,始能得知網路服務者之電子郵件,而有些網站甚至無法顯示網路服務者之電子郵件。   我國於「電子商務消費者保護綱領」第5點企業經營者應提供有利於消費者選擇及進行交易之充分資訊包括「企業經營者本身資訊」,例如登記名稱、負責人姓名及公司簡介、公司或商號所在地及營業處所所在地、電子郵件、電話、傳真等聯絡方式及聯絡人等資訊,資訊提供範圍與德國電信服務法第5條第1項第2款大抵相同。 *德國電信服務法(TMG)第5條網路服務者應揭露之資訊範圍包括其聯繫資料、特許職業執照證號、營利事業登記證號等。

TOP