用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
韓國中小企業暨新創事業部(Ministry of SMEs and Startups)於2025年8月26日宣布,國務會議已審議通過《中小企業基本法施行法》(Enforcement Decree of the Framework Act on Small and Medium Enterprises)部分條文修正案,調整中小企業(Small and Medium Enterprises)銷售額認定基準(Sales Threshold)。 判斷企業是否屬於「中小企業」主要依據兩項因素:一、依資產和銷售額訂定的企業規模標準;二、用以評估企業是否獨立於其關係企業(affiliation)的獨立性標準。其中,以銷售額作為認定依據的基準,是按行業別三年平均值計算,自2015年制定以來至今已十年未作調整。 然而,自 COVID-19 疫情以來物價急遽上升,生產成本大幅增加,導致部分中小企業在未有實質成長的情況下,銷售額僅因通膨因素而形式上增加,進而被迫脫離中小企業範圍,失去關於中小企業的優惠保障。因此,中小企業界過去一直有呼籲調整中小企業銷售額認定基準。 為合理調整中小企業銷售額認定基準,中小企業暨新創事業部經與業界、相關部會及學界專家協商後,決定調整認定基準。爰此,《中小企業基本法施行法》部分條文修正案已由國務會議審議通過,並於2025年9月1日公布生效。 修訂案主要內容如下: 首先,中小企業部分:在44個行業別中,有16個行業的銷售額認定基準將比現行標準上調200億至300億韓元;銷售額範圍則由400億至1,500億韓元調整為400億至1,800億韓元。 其次,小型企業(Small enterprises)部分:在43個行業別中,有12個行業的銷售額認定基準將比現行上調5億至20億韓元;銷售額範圍則由10億至120億韓元調整為15億至140億韓元。 因應此次修法,受影響的中小企業─即目前享有「中小企業畢業寬限期優惠」(SME graduation grace period),但因修法而重新取得中小企業資格之企業─將予以配套措施。 所謂「中小企業畢業寬限期優惠」,係指當企業因銷售額增加而超過中小企業銷售額認定基準時,仍可在最長五年內仍被認定屬中小企業的身份,以協助其有充裕時間平穩過渡至成為中型企業(medium-sized enterprises)。 因此,「中小企業畢業寬限期優惠」僅適用於首次因銷售額增加而超過中小企業認定基準,不再屬於中小企業的企業。 然而,若目前正享有「中小企業畢業寬限期優惠」的企業,因此次修法調整銷售額認定基準而重新取得中小企業資格,導致目前享有的寬限期優惠被中斷結束,未來若再次因銷售額超過中小企業銷售額認定基準,而不再屬於中小企業,將予以配套措施,可再享有一次「中小企業畢業寬限期優惠」。 韓國此次調整中小企業銷售額認定基準並完善中小企業畢業寬限期優惠制度,可作為我國修訂中小企業政策之參考。
歐盟法院做成先決裁判,臉書粉絲專頁管理員也有責任保護用戶資料隱私歐盟法院於2018年6月5日對德國行政法院依歐盟運作條約第267條(267 AEUV),就歐盟個人資料保護指令(95/46/EC)第2、4條之解釋適用,提起的先訴裁判申請做出先訴判決。判決提及利用臉書(Face Book)平台經營粉絲專頁,並獲取臉書相關服務的管理者,同樣負有保護用戶資料隱私的責任。此將影響眾多的粉絲專頁,判決指出不僅臉書,連粉絲專頁的管理員都有保護訪客資料安全的責任。 由於臉書粉絲專業的經營者,並未保存其粉絲的相關資料,既不經手資料處理,更無力影響資料如何呈現,因此主張資料處理的責任應該在於臉書身上,處罰對象也應該是臉書。判決理由指出,臉書作為粉絲專頁相關個人資料的控制者(data controller)應負相關責任並無疑問,但歐盟地區粉絲專業的管理者,應該和臉書一樣,作為資料處理的共同責任者。蓋管理者係運用臉書提供的設定參數,將粉絲專頁的近用者資料蒐集處理,應該負共同責任。因此歐盟法院判決,利用臉書平台經營粉絲專頁,並獲取臉書相關服務的管理者(administrator),並不能免於個資保護法律的法遵義務。 另外依據德國聯邦資料保護與資訊安全委員會(BFDI)意見,認為雖然判決是基於一般資料保護規則(GDPR)生效之前就已經存在的法律,但法院所確定的共同責任原則也適用於新的法律。BFDI特別建議公共機構以歐盟判決為契機,審查公共機構粉絲頁面的合法性與是否遵守法律規定,並在必要時說服Facebook調整資料保護。
美國創新戰略推動下科技政策與重要法案之觀察 德國發布國家資料戰略─《透過資料利用取得進展》2024年德國預計制訂或修正多部法規,以達成2023年8月公布的德國資料戰略《透過資料利用取得進展》(Fortschritt durch Datennutzung)文件中所設定的目標。該戰略由內政部、經濟與氣候行動部、數位與交通部聯合訂定,規劃德國資料政策與法規的工作進程,以期打破資料封閉的現狀、拓展資料應用的範圍。 德國資料戰略目標與重點摘要如下: 1.更多的資料: (1)公部門資料:藉由統整跨部門的資料增加資料的可近用性,並透過新訂法規提升資料近用機會,包括《交通資料法》(Mobilitätsdatengesetz)確保交通資料的品質和使用規則、《聯邦透明度法》(Bundestransparenzgesetz)作為取得政府資料的法源依據、《研究資料法》(Forschungsdatengesetz)簡化科研資料的取得,以及為增加健康資料二次利用起草的《健康資料利用法》。 (2)私部門資料:德國政府將訂定並提供資料共享之契約範本,以降低資料的交易、操作成本,並評估增修公平競爭相關法規來協助企業間的資料合作。另將新訂《員工資料保護法》(Beschäftigtendatenschutzgesetz),重整散於歐洲人權法院及德國國內與員工資料相關之規範。 2.更好的資料:德國將積極參與國際資料標準訂定與遵循,確保資料的品質、互操作性,以及標準化的資料描述。相關工作包括草擬關於業者使用cookie等數位追蹤技術如何取得使用者同意的管理規範,並將依歐盟準則評估是否訂定不法重新識別之刑責;另外預計建立文化、農業等主題資料室用以協助政府決策。 3. 資料利用和資料文化:為使資料可持續地利用與發展,政府機關方面將設置資料專責人員,並在以政府資料訓練大型語言模型技術時由新設的資料諮詢中心協助。公民數位能力方面,將於STEM 2.0教育計畫中規劃培育資料概念,促進未來社會發展出更多樣的資料應用機會。 德國資料戰略涉及政府、企業、研究單位和公民各層面,顯示資料的重要性逐漸成為德國重大的課題,亦是我國在建立資料治理時如何確保資料品質、交換義務與使用規則的參考方向。