用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
美國最高法於近日判決電影編劇Frank Petrella之女得對電影公司MGM對其父親於1963年以世界中量級拳王Jake LaMotta生平創作的劇本蠻牛(Raging Bull)持續性的商業利用行為提出侵權訴訟。 本案緣起於在美國著作權法下,1978年以前發表的著作受到28年的著作權保護,並得於到期後延展保護67年,而若作者在延展之前死亡亦即本案情形,著作受讓人僅得於繼承人移轉延展權的情況下繼續使用,而著作權法507(b)規定民事賠償請求需於侵權行為發生後的三年內提出。 原告編劇Frank Petrella之女於2009年向MGM提出2006年後侵權行為之賠償,MGM則以法律不保護權利怠於行使之人(thedoctrine of laches)作為抗辯,主張原告不得起訴。地方法院及第九巡迴上訴法院皆贊同被告MGM之主張,認為原告於1991年延展著作權保護時即知悉,此舉對MGM並不合理且帶有偏見。 最高法院近日推翻下級法院的看法,認為權利行使怠惰並不阻卻權利人對請求權時效內發生的侵權行為提出訴訟,同時更進一步釐清著作權法507(b)允許權利人評估值得尋求訴訟救濟的時間點,除非權利人刻意誤導第三人不會對其起訴,而這是禁反言原則(thedoctrine of estoppel)的問題,本案下級法院顯然混淆了二者之區別,從而肯定原告有權向MGM請求著作權侵害之損害賠償。
新加坡個人資料保護委員會針對企業蒐集、使用、揭露永久居留證(NRIC)號碼提出新的諮詢指引考量各行各業的從業習慣及民眾對企業蒐集、使用、揭露永久居留證(National Registration Identification Card, NRIC)號碼之看法,新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2017年11月提議修改個人資料保護法的諮詢指引(Advisory Guidelines on the Personal Data Protection Act ),明確界定企業蒐集、使用、揭露NRIC及其號碼之範圍。 依據舊的諮詢指引,新加坡個人資料保護法允許企業在基於合理特定目的並依法獲得當事人有效同意之情況下,蒐集、使用或揭露NRIC號碼。因此,不少企業活動習慣蒐集利用民眾的NRIC號碼,包括零售商店所舉辦的抽獎活動。然而,在PDPC提出新的諮詢指引後,企業可蒐集利用NRIC號碼的情況受到大幅限縮。 由於NRIC號碼與個人資訊息息相關且具不可取代性,無差別地蒐集利用將增加資料被用以從事非法活動之風險,故新的諮詢指引闡明,原則上企業不應蒐集、使用或揭露個人NRIC號碼或複印NRIC,除非有下列兩種例外情況之一:(一)法律要求;(二)為確實證明當事人身分所必要。第一種例外情況,雖因法律要求無須取得當事人同意,但企業仍應踐行告知義務,使當事人知悉NRIC號碼被蒐集、使用或揭露之目的,並確保企業內已採行適當安全措施,防止NRIC號碼被意外洩漏。第二種例外情況則仍須就NRIC號碼的蒐集、使用或揭露取得當事人同意,除非符合個人資料保護法規定下毋庸取得當事人同意之例外(如急救等緊急狀況)。 此外,PDPC針對得蒐集、使用或揭露NRIC號碼或複印NRIC的情況,以情境案例方式於諮詢指引中說明供企業參考,另給予12個月的審視期間,使企業得修正組織內部政策並尋找可行替代方案。
智慧財產局修法賦予動植物專利權,但將不及繁殖物我國專利法修法後,將全面開放動植物專利,其中,最引起各界關注的問題是動植物專利權的效力。動植物專利的保護,有助於發展國內生技產業,但保護過度,又會影響農漁民生計,故智慧局在五月初發布之專利法部分條文修正草案中,增訂動、植物專利權利耗盡之範圍包括必然導致繁殖之專利生物材料本身及其所繁殖之生物材料,但不包括為繁殖之目的而使用該繁殖之生物材料之行為。 根據現行專利法第56條第1項規定,獲得動植物相關發明的物品專利權人,專有排除他人未經其同意而製造、為販賣的要約、販賣、使用或為上述目的而進口該物品之權。惟專利法第5條規定,專利物品本身經第一次販賣後,專利權效力及不於後續的實施行為。動植物的繁殖特性,如果一經販賣後,專利權效力即不及,則勢必影響動、植物發明人的權益。 基於上述理由,智慧局經參考歐盟生物技術發明指令第八條,於專利法部分條文修正草案中明訂動植物等生物材料之專利權耗盡範圍,另為了保護農民權益,此次專利法修正草案中亦特別明訂農民免責,使農民自專利權人或其授權人處取得受專利保護之植物繁殖材料,可將收穫後之種子在其農地上進行繁殖使用,而為專利權效力所不及。
德國網路服務提供者(ISP)之第三人侵權行為責任德國聯邦法院(簡稱:BGH)民事庭於2015/11/26分別在兩件案例中(I ZR 3/14 和 I ZR 174/14)針對網路服務提供者(ISP)責任作出具重大影響力之終審決定。BGH認為即使此侵權網站之內容可在別處被找到,原則上德國ISP仍可阻斷侵權網站之連接。兩案分別由德國音樂集管團體GEMA對德國電信(I ZR 3/14),以及華納、新力、聯合音樂共同對一德國私人電信公司Telefonica O2所提起 (I ZR 174/14),聲明請求法院命令網路連接業者切斷對侵權網站之連接。兩案原告等之聲明分別在一審與上訴審皆被駁回,於是分別上告(Revision)至BGH。 BGH於判決中指出,雖不排除ISP可阻斷對侵權網站之連接可能性,然先決條件在於著作權人需先盡合理的努力(Zumutbaren Anstrenungen),去阻止被保護內容之擴散。而兩案中原告等未盡此義務,故以此為理由駁回上告。BGH課予著作權人盡合理的努力後,才能訴諸此切斷侵權網站連接之最終手段,此可為我國處理網路服務提供者(ISP)之第三人侵權行為責任之參考。