用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

你可能會想參加
※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&i=0&d=9050 (最後瀏覽日:2024/07/27)
引註此篇文章
你可能還會想看
義隆電子否認與蘋果電腦已和解專利爭訟!

  台灣觸控模組暨晶片解決方案公司義隆電子 (Elan Microelectronics)對外否認已解決2009年4月於美國舊金山聯邦地方法院對蘋果電腦(Apple)所提出的專利侵權訴訟案。   該案件由義隆電子向Apple提出控告,認為Apple相關產品iPhone, iPod touch及MacBook,使用到義隆電子兩項專利,分別為U.S. Patent No.5,825,352(簡稱352專利),具有可同時察覺兩個或多個手指接觸感應之輸入設備之能力;另一U.S. Patent No.7,274,353(簡稱353專利),為具有能在鍵盤和手寫輸入模式兩者間互換的觸控板的技術。   Apple希望平息該案件,據說Apple提出7,000萬美元的和解價值,但義隆電子堅持說明該案仍於美國國際貿易委員會審議中。   義隆電子近年來,利用所擁有的觸控相關專利,與國際大廠提出專利侵權訴訟案,如2008年向新思國際(Synpatics);2009年4月向蘋果電腦(Apple);2010年1月向蘇州瀚瑞微電子(PixCir),以保護自身的智慧財產權。

日本正式敲定今年版智慧財產權推動計畫

  日本為了提高產業競爭力,於 2002 年提出智財戰略計畫,並於內閣中設戰略本部,由首相小泉純一郎領導,每年並仔細擬定當年度的智慧財產權推動計畫。在今年剛定案的「二零零六年智慧財產權推動計畫」中,以開發或利用大學的智慧財產及加強與產業界的合作並提出對付仿冒品等的對策為重點。   根據「二零零六年智慧財產權推動計畫」,未來將加強整合大學內部的大學智慧財產本部與民間的技術移轉機關( TLO ),以便集中運用人才、研究成果。計畫也將建立一套可簡便利用專利或論文的資料庫系統,預期明年四月起可供利用。   日本的大學院校去年在國內取得專利權的有三百七十九件,大學將專利技術移轉至民間組織件數在二零零四年度有八百四十九件,藉由技術轉移所得收入為三十三億日圓,雖然這些表現相較於以往年度均有所成長,但日本不論在專利件數或收益上,都與美國相差甚遠,日本政府為了加強國際競爭力,認為有必要加強產、學界的合作,故「二零零六年智慧財產權推動計畫」也規劃,大學院校若有意到海外申請專利權,政府將補助申請費;此外,原本只限定優惠大學正副教授的專利申請費減免措施,也將及於研究所的學生等,以期促進大學內部研發。

醫療器材審核制度仍有爭議 歐洲議會延後表決時程

  在歐盟發生了諸如法國隆乳植入物醜聞(PIP scandal)以來的諸多事件後,歐盟醫療器材審核制度的革新更顯得刻不容緩。然而,歐盟執委會提案修正過往歐盟對於醫療器材之相關規範,強化市場化前(pre-market)的審核機制,引起了各界不同的意見,因此本年七月初,歐洲議會決定延後新指令修正案的表決至9月,以爭取時間取得各成員國代表間的共識。   為強化對於患者健康的保障,歐盟執委會(European Commission)於2012年提出醫療器材規則修正案(Proposal for a Regulation of the European Parliament and of the Council on medical devices),並包括對2001/83號指令等(Directive 2001/83/EC, Regulation (EC) No 178/2002 and Regulation (EC) No 1223/2009)的修正,已建立更完善的歐盟醫療器材管理機制。其中包括歐盟統一而集中的審核程序,此舉卻引起不同意見,認為過於科層化(bureaucratic)的市場化前審核制度設計,將阻礙研發且不見得對病患有利。有歐洲議會議員指出,現行制度雖有進化的必要,然集中化(centralisation)的審核工作,對於行政負擔的加重,或許不如先在各國家層級的管理機制進行強化。而歐盟醫療器材產業界也認為,集中統一化的審核機制,將會對於中小型研發企業造成衝擊,間接影響歐盟醫材類技術領域的科技研發,業界認為,新法案對於所謂對患者具有高風險第三類醫療器材(Class III devices)的審核,將使得患者延遲3至5年才能得到可以拯救其性命的產品,相對地卻沒有得到甚麼安全的提升。   七月初,歐洲議會公共健康與食品安全委員會(Public Health and Food Safety Committee, ENVI)決議將推遲法案表決至9月18日,屆時表決的結果,將主導未來歐盟醫療器材管理的主要方向。

德國法院判決Google沒有進行事先審查網站內容之義務

  德國最高法院在2018年2月27日判決,Google在搜尋結果連結顯示之前,並無須確認該網站是否存在毀謗性言論,亦即,Google沒有義務事先審查搜尋結果中連結的內容。   此案件的背景是由兩個受到網路言論攻擊的人所提出,其主張為防止其他網路使用者攻擊他們言論的網站出現在Google搜尋結果的連結上,因此希望Google其中的一個部門—Alphabet公司,設置搜尋過濾器,就用戶曾經在網站上發表過不良評論以及損害賠償的相關資訊不會在未來的搜尋結果出現。   本案涉及關於「被遺忘權」(“Right To Be Forgotten”)的討論,所謂被遺忘權是由2014年5月,歐盟法院(ECJ)所作成之裁定,即人們可以要求Google和微軟Bing(MSFT.O)等搜尋引擎於搜尋人名出現的網頁結果中,刪除不適當或不相關的訊息。   本案中,對於Google沒有對搜尋結果進行過濾,Google是否因此有侵害被遺忘權之爭議,德國最高法院表示,搜尋引擎經營者僅須於收到明確且具識別性侵犯個人權利的通知時,採取相關行動即可,並毋須事先檢查該網站之內容是否合法。蓋立法者及社會皆普遍認為,若將搜尋引擎審查網站的內容定為其一般性義務,則其商業模式的本質將備受嚴重質疑,且又由於數據具有管理上的困難性,若無此類搜尋引擎的幫助,人們不可能在網路上獲得有實質有意義的使用,因此搜尋引擎不須將此列為其義務。

TOP