用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

資訊工業策進會科技法律研究所
2023年09月08日

生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。

惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。

壹、事件摘要

Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。

R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]

貳、生成式AI應用之潛在風險

雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]

一、能源使用及對環境危害

相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]

二、能力超出預期(Capability Overhang)

運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。

三、輸出結果有偏見

生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。

四、智慧財產權疑慮

生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。

五、缺乏驗證事實功能

生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。

六、數位犯罪增加與資安攻擊

過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。

七、敏感資料外洩

使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。

八、影子AI(Shadow AI)

影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。

參、事件評析

在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]

當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。

雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。

[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).

[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).

[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).

[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).

[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research  (last visited Aug. 29, 2023).

※ 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9050&no=57&tp=1 (最後瀏覽日:2025/12/10)
引註此篇文章
你可能還會想看
英國Ofcom提出「促進智慧聯網之投資與創新」報告並對英國智慧聯網管制應補強之方向提出建議

  英國電信主管機關Ofcom於2015年1月提出「促進智慧聯網之投資與創新」報告(Promoting investment and innovation in the Internet of Things),對英國智慧聯網(Internet of things, IOT)之管制發表意見。Ofcom認為就英國發展智慧聯網之現況而言,在商業上確實已經進行智慧聯網發展並投資之,然,並未對複雜的發展做好準備;Ofcom亦承認英國在基礎設施和政府管制架構上,尚未具備適當的發展。於此報告中,Ofcom提出四方向的建議,分別為資料隱私與消費者認識、網路安全與防護、智慧聯網可用之頻譜和電話號碼與網址管理等四項。   首先在資料隱私與消費者認識部分,Ofcom認為以現有管制保護智慧聯網下之隱私的效果有限,因此建議英國「資訊專員辦公室」(Information Commissioner's Office , ICO)需要發展未來隱私保護議題之解決方法,並且與政府及其他管制機關就資料隱私之法制議題共同進行,包括將現有之資料保護管制之範圍進行評估,考量是否需涵蓋到所有智慧聯網設施,和訂定智慧聯網資料共享之原則。   第二,在網路安全與防護管理上,Ofcom指出英國2003年通訊法(Communication Act 2003)已就服務提供者所提供之公眾可使用的網路與服務,課與特定安全與防護責任;例如網路與服務提供者必須採取適當的手段管理安全風險,尤其需將對終端使用者之影響降至最低、網路提供者必須採取所有適當的程序,盡可能的保護網路安全。然,Ofcom認為智慧聯網並未直接規定於現有的管制中,例如智慧電網設施之高度安全與防護範圍應涵括私人網路;故,應評估必須規定於法律中的智慧聯網網路與服務種類,以達完善防護。   再者,關於智慧聯網可用之頻譜議題,著重於用於智慧聯網之技術須改進。目前使用之頻譜在2.4和5GHz(此頻譜亦用於Wi-Fi服務);而未來的設施也可能使用到1GHz以下的頻譜,同時Ofcom也說明其將來僅會監視頻譜的利用,而不會開放新的可用頻譜。   最後,在電話號碼與網址管理方面,就智慧聯網設施之網際網路協定,未來可能會從IPv4發展成為IPv6也是相當重要的。Ofcom認為未來智慧聯網可能會發展成一個「相當大數量且顯著的設施」,故採用IPv6將顯得更為重要;然,就目前而言,英國採用IPv6之情況系落後於其他國家的。   Ofcom現正致力於發展新的頻譜管制、數據隱私、網路安全與網址等管制,殊值得繼續觀察以俾利我國智慧聯網管制與發展。

美國網紅控訴前員工竊取其成功經營社群媒體之機密計算公式

美國J. Cathell公司於2022年12月21日以《保護營業秘密法》(Defend Trade Secrets Act of 2016)、《喬治亞州營業秘密法》(The Georgia Trade Secrets Act)控訴前員工Martin侵害其營業秘密「設計社群媒體發文及服裝策畫計算公式」。   J. Cathell公司是知名引領潮流、設計與旅遊的網紅兼部落客Jess Cathell所成立,其個別社群媒體皆有上千、萬名之追蹤者。其所經營之J. Cathell公司透過Instagram(@j.cathell)與網站(www.jcathell.com)提供前往特定目的地旅遊而設計的服裝,亦融合特定風格與特殊活動,同時提供販售連結。另有經營Facebook(J. Cathell Facebook)、Pinterest(J. Cathell Pinterest)、Like To Know It(下簡稱LTK)(J. Cathell LTK)等社群媒體。該服裝與風格設計是由Jess Cathell針對其客群研析出專屬、非公開之計算公式(營業秘密)所得出之結果。   被告Martin自2020年9月起任職於J. Cathell公司、擔任Jess Cathell的助理。Jess Cathell主張其提供Martin專屬計算公式之使用權限,並投注大量成本教導如何運用計算公式詮釋服裝策畫結果、設計社群媒體發文內容。前述資訊對J. Cathell公司皆具有獨立之實際或潛在經濟價值、他人亦可因被揭露之資訊,或使用該資訊而獲利。   Jess Cathell主張僅有自己、Martin能接觸專屬計算公式,並運用該公式產出設計社群媒體發文及服裝策畫結果。Jess Cathell為了保密,不曾以紙本記錄留存專屬計算公式相關資訊;用於追蹤銷售與其他績效指標的系統,皆以帳號、密碼保護。而Martin知悉該密碼,且於Martin任職期間多有提醒前述資訊之秘密性,Martin針對這些資訊具有保密義務。   Jess Cathell於2022年4月左右,發現WEAR TO WANDER公司(下簡稱WTW公司)成立Instagram、Pinterest、Facebook、LTK等帳號與WTW公司網站,於前述社群媒體發文的格式及概念,與J. Cathell公司於社群媒體發布的內容幾乎相同,並於同年8月發現Martin是WTW公司的創立者。Jess Cathell主張因Martin、WTW公司不當使用其營業秘密「設計社群媒體發文及服裝策畫計算公式」,在短短11個月內,WTW公司的Instagram即獲得近9萬名追蹤者,造成J. Cathell公司之財務與競爭損害,遂於同年12月向法院提出營業秘密侵害訴訟。   本案為首件社群媒體經營產業相關之營業秘密訴訟案件,後續判定將值得關注。   本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國著作權法109(a)條「第一次銷售原則」之適用原則

  美國最高法院於2010年12月13日以4:4的平手票數確立了第九巡迴上訴法院於Omega, S.A. v. Costco Wholesale Corporation案中關於著作權法109(a)條「第一次銷售原則」(first sale doctrine) 並不適用於享有美國著作權法保護之外國製造但未經授權於美國再販售之產品。   此案源於由知名瑞士鐘錶品牌Omega 於瑞士製造的手錶透過所謂「水貨」或「灰色市場」的途徑輾轉由一家名為ENE Limited的紐約公司所購得,而Costco自該公司購得手錶後於加州賣場以低於合法代理商的價格販售。然而,Omega雖對於該手錶於外國的初次販售給予授權,但並未授權該商品爾後輸入美國並由 Costco 販賣之行為。Omega乃對Costco提出侵權告訴,而此案所牽連的著作物即為手錶底面都刻有受美國著作權法所保護之「歐米茄全球設計(Omega Globe Design)」字樣。   Costco則以著作權法第109(a)條作為抗辯,主張「第一次銷售原則」之規定,亦即Omega首次於外國販售該手錶之行為,已排除其對於後續散布、進口及未經授權之銷售等行為之侵權主張。第一審法院聽取Costco 之意見,Omega 乃上訴於第九巡迴法院。上訴法院對於「第一次銷售原則」之適用較為限縮,認為先前Quality King案的判決,並未使上訴法院對於「第109(a)條,只有當該主張涉及在美國國內製造受美國著作權法保護之著作的重製物時,可以對抗第 106(3)條(公開散布權)及第602(a)條(輸入權)」之一般規定無效。換言之「第一次銷售原則」並不適用於銷售外國製造但未經授權於美國再販售的著作物或其合法重製物。而最高法院亦同意上訴法院的看法。此案的判決結果意味著作權人或合法代理商將可間接防止或控制於外國製造的真品(即水貨)未經授權輸入於美國市場。

韓國通過網路電視法案

  由於新興通訊技術的應用與網路頻寬的快速成長,透過網路收看電視已不再是遙不可及的科技願景。網路電視(Internet Protocol Television;IPTV)在許多國家都已經是逐漸應用成熟的服務,但是相對而言,法規的管制架構卻多仍處於追趕摸索的階段。   網路電視之相關法制爭議眾多,曾被提出討論者如攸關管制基準之網路電視定位,是否視同傳統廣播電視加以管制?相關之義務是否比照要求(如對於無線電視之必載義務)?網路電視市場之界定?市場力量之監督與公平競爭環境之維護等,皆為重要的關注焦點。   韓國國會傳播特別委員會於上月(11月)通過一項網路電視法案(IPTV Bill),對於重要之網路電視相關規範加以界定。此一國會傳播特別委員會所通過之網路電視服務法草案,對未來網路電視可能的市場主導者(包含廣播電視公司、網際網路服務提供者、電信公司等)之行為,事先加以規範。例如規定KT等重要電信公司提供網路電視服務並不需要另行成立附屬公司;另一方面,廣播電視公司未來將可提供全國性的網路電視服務,惟其市場佔有率將限於整體市場的三分之一以下。   未來的網路電視型態可能包含被動收視或主動要求播送,其他附加的服務更包含透過網路電視進行購物、遊戲、金融服務等,潛藏之商機已引起各界注意,也值得國內盡早思考整體管制架構,促進產業成熟發展。

TOP