用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
英國氣候過渡計畫工作小組(Transition Plan Taskforce, TPT)在2022年11月8日公布其氣候揭露報告框架草案(Disclosure Reporting Framework)、實施指南,以及技術性附錄,用以輔導英國企業擬定氣候過渡計畫,並在技術性附錄中提供與氣候揭露相關的指標與準則等詳細資訊,供企業參考。 氣候過渡計畫是英國淨零政策相當重要的一環。英國財政部長於2021年COP26大會上宣布成立工作小組,研擬氣候過渡計畫的規範,要求英國企業公布清晰且可交付的計畫,英國財政部在2022年4月宣布TPT成立,負責建立一套英國適用、並且可與其它國際準則進行轉換的氣候過渡計畫準則。TPT根據氣候相關財務揭露工作小組(Task Force on Climate-related Financial Disclosures, TFCD)、國際永續準則理事會(International Sustainability Standards Board, ISSB)、及格拉斯哥淨零金融聯盟(the Glasgow Financial Alliance for Net Zero, GFANZ)等現有成果,另增若干細節,在2022年11月提出此一框架草案及指南等文件。 TPT框架建議企業以企圖心、行動力和當責性為原則,分階段設定過渡計畫目標。而企業的氣候揭露應包括五大項目:基礎事項(如企業目標)、執行策略(如企業營運)、擴大參與策略(如與價值鏈的連結)、使用的指標與目標(如財務指標)以及治理(如董事會的監督與報告),這些在實施指南中都有詳細的說明。 TPT框架自公布起即公開徵求各界意見至2023年2月28日,並廣邀各界就其內容進行測試,提供意見反饋,這些都將供作TPT修訂框架之參考,預計2023年完成草案的最終版本。TPT的文件雖不具法律效力,但是其內容將成為英國金融行為管理局(Financial Conduct Authority, FCA)未來修訂上市公司及金融機構相關氣候過渡計畫揭露規則時的依據,其後續發展值得關注。
德國聯邦經濟與能源部提出《GAIA-X計畫》建立歐洲聯合雲端資料基礎建設2019年10月29日,德國聯邦經濟與能源部提出GAIA-X計畫(Project GAIA-X),蒐集德國聯邦政府、產業和科學界代表意見,與歐洲夥伴合作共創高性能、具競爭力、安全可信賴的歐洲聯合雲端資料基礎建設平台。GAIA-X計畫被視為歐洲開放、透明的雲端數位生態系統搖籃,用戶得以在可信任的環境中,提供整合安全的共享資料;透過雲端資料的跨國合作,為歐洲國家、企業和公民創造聯邦資訊共享環境、促進數位創新、建構全新商業模式。GAIA-X計畫將嚴格遵循資料保護、公開透明、真實性與可信賴性、數位主權(Digital Sovereignty)、自由市場與歐洲價值創造、系統模組化及互操作性(Modularity and Interoperability)、資料可用性等歐洲價值觀及原則。 GAIA-X計畫設定的目標包括:1.維護歐洲數位主權;2.減少對外國雲端供應鏈依賴;3.拓展歐洲雲端服務的國際市場;4.塑造創新數位生態系統。透過建立資料技術與數位經濟相關的基礎設施,將統一安全規格的雲端技術,落實在公共管理、衛生部門、企業和科研機構用戶與供應商間,形成開放數位資料共享的大平台。另外,GAIA-X計畫能進一步強化歐洲雲端服務供應商及歐洲商業模式的全球競爭力與規模,透過聯合雲端資料基礎建設,連接歐洲大小型企業、公部門、醫療及金融機構的伺服器,將全歐洲對於數位技術的多項投資串連在一起,積極發展AI人工智慧、智慧醫療、數位金融監管等新興產業,得以確保歐洲數位安全並提高雲端資料處理能力。
中國衛生部發布「抗菌藥物臨床應用管理辦法」長久以來,中國民眾對於抗菌藥物(如抗生素等)存有高度的依賴性,造就了國內規模龐大的抗菌藥物市場,依據中國衛生部統計,中國民眾對抗菌藥物的人均消費額幾乎是美國民眾的10倍。對此,世界衛生組織早於2011年4月7日便正式提出警告與呼籲,若中國未能控制抗菌藥物濫用的情況,很快將面臨「無藥可用」的窘境,並演變為全球人類的災難。 為扭轉前述抗菌藥物濫用狀況,中國衛生部於2012年4月24日正式發布了「抗菌藥物臨床應用管理辦法」(以下稱管理辦法),分別對於抗菌藥物的使用及醫療院所之管理制度作了如下的完整規範: 1. 對抗菌藥物採分級管理制,分為「非限制使用級」、「限制使用級」及「特殊使用級」三類,並要求醫療院所依此分類,擬定「抗菌藥物供應目錄」,凡具有同一通用名稱者,其注射型和口服型各不得超過兩種、具有相似或相同藥理學特徵的藥物亦不得重複列入。 2. 依上述分級對抗菌藥物作臨床使用管理:「限制使用級」者,只有當發生嚴重感染、免疫功能下降合併感染,或病菌只對限制級藥物有反應時,才允許使用;「特殊使用級」者,非經醫療院所內設置的「抗菌藥物管理工作機構」同意,不得使用;惟若係為搶救生命垂危的病患或其他緊急情況下,可以越級使用,但須於24小時內補行程序。 3. 各院所必須設置「抗菌藥物管理工作機構」或專責人員,負責制定抗菌藥物管理制度、擬定「抗菌藥物供應目錄」,並建立細菌抗藥預警制度。 管理辦法將於2012年8月起正式施行,一般預料將有助於改善中國抗菌藥物濫用的現象,然用藥限制也必定衝擊現今許多對抗菌藥物產品銷售已存有高度依賴性的企業;相反地,由於管理辦法中明文將「具有抗菌作用的中醫製劑」排除於管制範圍外,或許將促成抗菌中醫藥品的發展契機,而值得持續觀察之。
日本研創「指靜脈」之個人生物身分辨識技術日本日立公司歷經多年研發「指靜脈認證」技術,這個研創的掃描器「靜紋J200」,可掃描判讀個人右手中指的靜脈紋路。依據該技術研創召集人中村道治博士的說法,每個人手指血管紋路是獨一無二,可作為個人生物身分辨識,希望能夠藉此安全防偽技術,杜絕盜領等事件發生。 日本長崎的「十八銀行」率先在提款機試用「靜紋J200」中指靜脈認證技術,該辨識裝置乃是以紅外線掃描取得中指血管影像,和金融卡資料及銀行生物身分資料庫比對。而為防止歹徒截斷受害人手指企圖通過辨識盜用身分提款,日立公司特別加上額外的防偽技術,只有血管內有溫暖血液流動的手指才能通過認證,斷指無法過關。