用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。
世界智慧財產權組織發佈2015年全球創新指數排名世界智慧財產權組織於2015年9月17日發佈的2015年全球創新指數報告(The Global Innovation Index)顯示,瑞士、英國、瑞典、荷蘭和美國是世界上最具創新力的前5名國家。 全球創新指數自2007年起每年發布,2015 年全球創新指數是該指數的第8版,由康乃爾大學(Cornell University)、歐洲工商管理學院(INSEAD)和聯合國專門機構世界智慧財產權組織(WIPO)共同發布,現已成為重要的評比基準,為全球國家競爭力與政策發展重要項目。世界智慧財產權組織總幹事Francis Gurry在當天的新聞發佈會上說:「每個國家都必須找到最佳的政策組合,以調整其經濟內部創新與創造的潛力」。從整體觀看,今年前25位排名都是高收入經濟體,與以往相較變動不大。值得注意的是,瑞士已連續5年位居第一,英國則從4年前的第8位躍升至第2位。英國的智慧財產權部長說:「產出優秀的科研成果向來是英國的優良傳統,英國人口比率佔不到世界1%,但發表頂尖的研究成果佔16%,卓越的科研是英國躍升國際創新排名第2位的主要原因。英國政府致力於創新研發、為新創提供足夠的智慧財產權保護、支持新創產業。」其後依次為:瑞典、荷蘭、美國、芬蘭、新加坡、愛爾蘭、盧森堡和丹麥。亞洲國家中只有新加坡進入前10名。 該份報告顯示,在創新質量方面,其中美國和英國保持領先,主要是因為其擁有世界級的大學;接著是日本、德國和瑞士。在創新質量上得分較高的中等收入經濟體則有中國、巴西和印度。 為了支持全球創新討論、指引各項政策、強調良好的作法,需要利用相關指標對創新和相關政策表現進行評估。全球創新指數創造出一種環境,即是使這些相關創新因素得到持續評估,其特色列舉如下: 1. 141個國家的現況介紹,包括根據79項指標所得出之數據、排名與優勢情形。 2. 根據30多個國際公私部門指標所得出的79個數據表,其中55個是可靠數據,19個是綜合指標,5個是問卷調查。 3. 公開透明且可複製的計算方法,其中每個指數排名(全球創新指數、產出和投入分項指數)有90%的置信區間,加上對影響每年排名的因素進行分析。 2015年全球創新指數是以兩個分項指數的平均值計算。創新投入分項指數衡量的是顯現出創新活動的國家經濟因素,這些因素共分為五大類:(1)機構,(2)人力資本與研究,(3)基礎設施,(4)市場成熟度,和(5)商業成熟度。「創新產出分項指數」是由創新成果的實際創新產出為證,分為兩大類:(6)知識與技術產出及(7)創意產出。
FCC核准拍賣700MHz頻譜波段,作為各式無線服務的使用有鑑於目前美國的廣播電視系統所使用的698-806 MHz 頻譜波段(一般稱作700MHz頻段),預計在由類比式的電視系統轉換至數位電視系統後,該頻段可完全地為各類無線服務所使用,包括公共安全以及商業服務,聯邦通訊傳播委員會(Federal Communications Commission, FCC)在2007年4月25日對此採納了「報告與命令」(Report and Order)以及「規則制訂建議的進一步通告」(Further Notice of Proposed Rulemaking )等文件作為相關規範。 關於700 MHz頻段的使用,目前FCC正朝下列三個面向來規劃: (1) 在商用服務方面,FCC以不同經濟規模的區域(如都會區、較大的經濟區塊等)來決定執照的發放,同時也制訂了如功率限制及其他的技術性規範。 (2)在保護頻道(Guard Bands)方面,FCC將改變目前在次級市場方面的租賃管理制度,使取得執照的業者在保護頻道的使用上更有彈性與效率; (3) 在公共安全頻段方面,FCC認為藉著更多頻段的釋放,使全國不同的網路(包括寬頻與窄頻)皆能全面達成互連,使危難發生時更得以發揮保障公共安全之功能。 上述相關的規則與建議將使FCC得以拍賣700 MHz頻段中不同用途的執照,並期待在全國性無線寬頻服務的互連方面,營造出更為創新以及符合公共安全的服務環境。
中國大陸專利局於2014年7月21日簽署「知識產權保險戰略合作協議」,落實創新驅動發展戰略中國大陸專利局與中國人民財產保險股份有限公司於2014年7月21日在北京簽署「知識產權保險戰略合作協議」,雙方將合作促進專利保險之發展。所謂專利保險係指在專利研發、專利申請、實施、讓與、使用或專利訴訟中,由於發生專利侵權的行為而提供的保險服務。然而,此次協議更包括專利保險政策擬定與政策環境營造、承保理賠流程之改善,並且試圖強化專利風險的宣導以提升企業管理專利風險的意識,最終目標是建立專利保險風險控制及分散機制。 相對於我國高科技產業於引進專利保險在分散專利風險上有正面的參考價值,但由於現行客觀環境下的條件較不完備,使得我國在推行專利保險上窒礙難行,主要原因在於法律制度的不同所產生的專利風險程度有異、無法準確計算保險標的鑑價制度等,但專利保險的概念早在1994年美國即已推出,又伴隨智慧財產權意識的高漲,各國也相繼推行,例如:英國推出的「專利申請保險」,以及日本推出的「知識產權授權金保險」等。因此,此次中國大陸亦擴大推行專利保險之政策,可謂與國際發展趨勢與整體智財法制建制有關,可供我國未來引進專利保險制度上試行之參考與討論。