用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9050&no=57&tp=1 (最後瀏覽日:2026/03/03)
引註此篇文章
你可能還會想看
歐盟執委會發布「歐洲健康資料空間」規則提案,旨在克服健康資料利用之障礙

  歐盟執委會(European Commission)於2022年5月3日發布「歐洲健康資料空間」(European Health Data Space, EHDS)規則提案,其旨在克服健康資料利用之障礙,以充分發揮數位健康與健康資料之潛力。EHDS為一個專門用於健康之資料共享框架(health-specific data sharing framework),針對患者以及用於研究、創新、政策制定、患者安全、統計或監管目的等電子健康資料之運用,建立明確規則、通用標準與實務、基礎設施與治理框架,無論是個人、醫療人員、健康照護提供者、研究人員、監管人員、產業界皆可由此受益。   EHDS之具體內容主要包括九個章節: (1)第一章為一般條款(General provisions),內容包括本規則之主題與範圍,並闡明定義、以及與其他歐盟法規之關係; (2)第二章為電子健康資料之原始利用(Primary use of electronic health data),其針對歐盟一般資料保護規則(GDPR)所載權利,增訂補充性之配套保護機制,並設定醫事人員及其他健康從業人員針對EHD之義務; (3)第三章為EHR系統與福祉應用(EHR systems and wellness applications),其主要重點為EHR系統之強制性自我認證計畫(mandatory self-certification scheme),要求其需符合可互通性與安全性等基本要求,並界定EHR系統中各經濟營運商(economic operator)之義務、EHR系統合規(conformity)要求,並負責EHR系統市場監督機構之義務; (4)第四章為電子健康資料之二次利用(Secondary use of electronic health data),如將資料用於研究、創新、政策制定、患者安全或監管活動。本章定義一組資料類型,規範可利用之既定目的以及受禁止之目的(如商業廣告、增加保險、開發危險產品),並規定會員國必須建立健康資料近用機構(health data access body),以便電子健康資料的二次利用,並確保由資料持有者所產生之電子資料可提供給資料使用者; (5)第五章為其他行動(Additional actions),其旨在提出其他措施以促進會員國之能量建構(capacity building),以配合EHDS之發展,包括數位公共服務之資訊交換、資金,並規範於EHDS下非個人資料之國際近用規定; (6)第六章為歐洲治理與協調(European governance and coordination),其創建「歐洲健康資料空間委員會」(European Health Data Space Board, EHDS Board),促進數位健康當局及健康資料近用機構之間的合作,特別是電子健康資料之原始與二次利用間之關係,並包含歐盟基礎設施聯合管理小組(joint controllership groups for EU infrastructure)相關規定,其任務在於就電子健康資料之原始與二次利用所需之跨境數位基礎建設進行相關決策; (7)第七章為授權與委員會(Delegation and Committee),其允許歐盟執委會通過關於EHDS之授權法案(delegated acts),並希望根據C (2016) 3301號決定成立一個專家小組,以便於準備授權法案、實施本規則時提供建議與協助; (8)第八章為附則(Miscellaneous)規定,其中包含關於合作與處罰之規定,以及要求於本規則實施後進行評估與檢視之條款; (9)第九章為延遲適用與最終條款(Deferred application and final provisions),其規定本規則與個別條款之生效日。

日本特許廳利用人工智慧審查專利與商標申請

  日本特許廳(Japan Patent Office,JPO)從去(2016)年12月開始,與NTT Data公司合作,使用人工智慧(Artificial Intelligence,簡稱AI)來系統化的回答有關專利問題,且依成果顯示,與原先運用人力回復的成果相當;JPO因此決定於今(2017)年夏天開始,將AI技術分階段應用於專利及商標的審查案,並期望能於下一會計年度(2018年4月至2019年3月),在審查業務中全面運用AI技術。   JPO指出,透過AI技術能有助於將專利及商標審查程序中繁冗的檢索程序簡化,以專利審查為例,可搜尋大量文件與檔案,進行專利先前技術檢索,以確保相關技術尚未獲得專利保護,同時也可以協助專利分類;此外,商標審查亦可利用AI之圖像辨識技術比對圖片及標誌,找出潛在的類似商標。   AI技術被證實能提升審查效率,並減輕審查人員檢索與比對部份的工作負擔,有助於抑制人工審查的長時間工作型態,根據2017年日本特許廳現況報告(特許庁ステータスレポート2017),於導入AI技術後,原本從申請到審查完成平均約2年左右之審查時間,期望可在2023年將審查期間降到14個月,讓日本成為智慧財產系統審查最快且品質最好的國家之一。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

FCC釋出頻段供骨幹傳輸使用

  現行微波通訊頻段(microwave services)為固定及移動廣播輔助服務業者(Fixed and Mobile Broadcast Auxiliary Service, BAS)及有線電視中繼服務業者(Cable TV Relay Service)於新聞採訪時節目傳輸使用。   而一般基地台與核心網路間的傳輸係藉由銅線或光纖。在FCC解除法規管制後,將可允許固定服務業者(fixed service)於未有執照之區域使用此頻段,而不會造成既有業者的干擾。可使用6875-7125 MHz及12700-13100 MHz頻段,總計達650Mhz。固定服務業者可用於基地台中程傳輸(middle mile)使用,並可加快4G網路佈建目標。FCC估計此範圍涵蓋50%國土面積及10%之人口。 FCC放寬之管制內容如下︰ 1.取消「最後連結」(final link)規範-使業者得以微波通訊來進行內容傳輸,且可減少設施的重複佈建。 2.允許適性調變(Adaptive Modulation)-允許固定服務業者在訊號不良時可減慢傳輸速度,以維持通訊連線。 3.不得架設輔助式基地台(Auxiliary station)-因FCC尚未有明確證據顯示當輔助式基地台與主要基地台共存時,是否造成干擾。因此不得架設輔助式基地台。

加拿大法院命令ISP業者提供非法下載者資訊給著作權人

  加拿大聯邦法院在Voltage Pictures LLC v. Does一案中核發命令要求第三人ISP業者TekSavvy提供在該案中被控非法下載電影的2千多位使用者姓名與地址資訊給著作權人Voltage電影公司,此例在著作權、科技與隱私的微妙關係中投出一記變化球。在本案例中,法院需要對2件事進行判斷,一是是否核發該命令,二是若核發命令,法院如何降低對隱私權的侵害並確保權利人以正當的目的使用相關資訊。   在判斷是否核發命令時,法院考量到下列因素,包括:法院命令是唯一合理取得資訊的方式,TekSavvy擁有係爭資訊,且命令不會對其造成不當的花費與影響。同時,認定Voltage有真實的意圖向非法下載者提出侵權訴訟,且對於資訊的揭露並無不當的目的。此外,在本案所提供的證據上,也認定Voltage確為善意的主張(bona fide claim),因此其著作權比受影響的使用者隱私權利益來得重要等因素。   不過,法院仍然必須進一步決定Voltage在本案中,是否將以善意的方式(bona fide manner)使用其所取得之隱私資訊,法院考量英、美著作權蟑螂(copyright trolls)濫發警告信勒索使用者的案例,認為在命令中對Voltage聯繫接觸使用者的方式作了限制與要求是平衡著作權與隱私權,及同時抑制著作權蟑螂的最好作法,包括:法院有權檢視並要求修改Voltage寄給使用者的信件、信件中必須表明尚未有侵權的裁決、收件者未必有責、並提示收件者可尋求法律意見,同時要求該信件以法院命令做為附件,確保命令不會被濫用。   Voltage一例對於著作權人、ISP業者與使用人而言相當關鍵,著作權人只要有適當的證據就可以取得法院命令要求ISP業者提供侵權使用者資訊,不過法院也表明會透過命令內容的限制,平衡著作權與隱私權,抑制蟑螂類型的商業模式在加拿大蔓延。

TOP