用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
當含有大量個人敏感性特質個資之郵件不小心發送到陌生人的電子信箱時,將可能對當事人帶來無法預估的損害。加拿大隱私委員Daniel Therrien在國際隱私日時(1/28)提醒各企業,不要忽略隱私控管工作對企業競爭力帶來之影響。然這樣的理念不僅僅只適用在大型的企業,加拿大有98%的企業員工少於100人,對於這些成千上萬的小規模企業而言更是重要。 Daniel Therrien說:「我能理解資源有限的小規模企業每天面臨高壓的業務需求,但就相關反饋資料顯示,加拿大當地居民較傾向與具有良好隱私實踐工作之企業進行交易。」因此,良好的隱私實踐工作不僅是有助於消費者,更可協助企業符合加拿大個人資料保護與電子文件法(Personal Information Protection and Electronic Documents Act)之規定。 為協助小規模企業採取積極措施,以保障消費者資料及隱私不被外洩,提高競爭力,加拿大提供相關關鍵步驟供企業參考:(1)不逾越產品或服務目的之資料蒐集;(2)提供顧客清晰易懂之隱私權政策,以便顧客了解資料為何被蒐集,及如何處理、利用;(3)了解蒐集哪些資料、資料儲存期間及方式、有權限接觸之人及刪除方式; (4)對員工進行隱私保護教育訓練;(5)除非必要,否則請避免蒐集如健康狀況、財務資訊等具敏感性之資料;(6)企業應設置窗口或指定專人,針對顧客權利主張或提出與隱私有關之疑問時進行回應。
歐盟《2022年前瞻策略報告》聚焦於新地緣政治之綠能與數位轉型歐盟於2022年6月29日提出《2022年前瞻策略報告:新地緣政治下之綠能與數位轉型雙生》(Twinning the green and digital transitions in the new geopolitical context,以下簡稱《2022年前瞻策略報告》),促進氣候與數位的協同和一致性,以面對現今與2025年的挑戰。歐盟主席Ursula Gertrud von der Leyen曾於2019年指出,綠能與數位轉型為首要的任務;鑒於俄羅斯與烏克蘭之戰爭,歐洲正加速提升於氣候與數位之全球性領導地位,聚焦於能源、糧食、國防與尖端技術之關鍵挑戰。《2022年前瞻策略報告》提出願景與雙生轉型(twin transitions)互動的整體分析,考量新興技術的角色,和地緣政治、社會、經濟與法規的因素,以塑造雙生,相互強化,並降低戰略依賴。 《2022年前瞻策略報告》確立十大關鍵行動,以擴大機會並減少源於雙生的潛在風險。該關鍵行動分別為: 1、在變化的地緣政治環境,歐盟需在轉型的關鍵領域中,持續強化其彈性與開放戰略的自主權。 2、歐盟須致力於促進全球的雙生轉型。 3、歐盟須策略性的管理關鍵商品的供應鏈,以達成雙生轉型,並保持其經濟上之競爭力。 4、在轉型的過程中,歐盟須強化社會與經濟上的凝聚。 5、教育與訓練系統須能適應新的社會經濟現實。 6、額外的投資須能轉向於支持技術與基礎設施。 7、引導轉型須有穩健與可信賴的監控框架。 8、具未來性與敏捷性的歐盟立法框架,須以單一市場為核心,將有利於具持續性的商業模型與消費模式。 9、制訂標準(Setting standards)為雙生和確定歐盟朝競爭持續性發展的關鍵。 10、更強健的網路安全與資料共享框架必須對潛在的雙生技術解鎖。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟公佈施行漫遊管制規範以降低行動通訊國際漫遊費率為降低歐盟民眾在歐盟各國家間往來之行動通訊漫遊費用,歐盟在去年七月提出歐盟境內大眾行動網路漫遊規則,以期將歐盟各國間的行動漫遊費用減少70%。該草案迅速得到各會員國之認同,於今年六月通過,並在今年6月30日正式公布歐盟漫遊規則(EU Roaming Regulation),該規則於公布後,歐盟27個會員國家之行動通訊業者均受其拘束。 根據該規則第3條之規定,歐盟各會員國內提供漫遊服務之行動通訊業者向本國業者收取之漫遊批發價格不得超過每分鐘0.3歐元。未來兩年內,價格上限將逐年下降至0.28歐元及0.26歐元。至於零售價格部分,業者向消費者收取之漫遊費率為撥出電話不得超過每分鐘0.49歐元,接聽電話不得超過每分鐘0.24歐元。未來兩年內,該費率將逐年下降至0.46歐元/0.22歐元以及0.43歐元/0.19歐元。另外,原則上本國之行動通訊業者均應在消費者進入歐盟其他會員國的同時,以簡訊或語音的方式自動且免費的提供漫遊費率相關資訊。 目前該規則將實施三年,歐盟執委會將於實施18個月後對於實施成果加以檢討,以決定是否延長漫遊規則之實施期間以及是否將費率管制規則延伸至簡訊及資料漫遊服務。
由AOL LLC and PLATFORM-A, INC. v. ADVERTISE.COM, INC. 案看網域名稱與商標名稱爭議2009年10月19日,美國線上公司AOL LLC and Platform-A, Inc. (American Online, 簡稱AOL)再次於美國聯邦加州中區地方法院 (US California Central Federal District Court)向一家提供美國線上行銷廣告的公司- ADVERTISE.COM公司,提出商標侵權訴訟。 本案原告- AOL早於2009年8月17日即向美國東維吉尼亞地方法院提出商標侵權訴訟,主張ADVERTISE.COM公司所使用advertise.com之網域名稱,除侵害AOL已註冊的Advertising.com,包含通用文字- advertising.com及設計過A之圖形,及申請中的AD.COM商標權外,也違反了不公平競爭法及維吉尼亞商事法。唯,10月初,東維吉尼亞地方法院法官提出有利於ADVERTISE.COM公司之意見,認為AOL企圖以其所註冊之商標- (A)dvertising.com,來阻止其他競爭公司在網路世界使用任何有關advertise文字的作法,係壟斷網路上所有線上廣告行銷市場;故,AOL被迫於10月將本件訴訟案轉向美國聯邦加州中區地方法院提出。 目前尚無對本案的意見,將待本案之後續發展,才能暸解商標權人所註冊的圖形商標中,若包含經設計的圖案及通用的文字時,是否就取得圖形當中通用文字的專用權,並可向其他競爭者主張,任何使用所註冊的商標的一部分,包含網域名稱中的文字,也是商標侵害的一種型態;如此,可能將導致擴張商標權的保障範圍。