用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
中國科學技術部與中國科學院等六個部門,於2011年12月8日聯合發布《國家中長期生物技術人才發展規劃(2010-2020年)》(以下簡稱「生技人才規劃」),期藉由具體政策措施之推動,充實國內生技人才資源,以促進生物技術及其產業蓬勃發展。 從中國國務院於2006年所提出的《國家中長期科學和技術發展規劃綱要(2006-2020年)》到科技部最近發布的《國家十二五科學和技術發展規劃》,均揭示「生物技術」為中國科技發展的重點領域。然而,現階段中國生技發展卻面臨了人才瓶頸,包括缺乏高層次創新人才、缺乏優秀創業型人才、人才資源開發投入不足,以及人才發展體制障礙待破除等問題,本規劃便在這樣的背景下誕生。 針對前述生技人才缺乏問題,生技人才規劃以「2020年時將中國打造成生物產業大國」為總體目標,分兩階段達成充實、培育生技人才的目的。第一階段為2011年至2015年,主要目標係在國內培育、造就一定規模的科技人才與創新團隊;第二階段為2016年至2020年,主要目標則為提高中國整體生技人才的素質,並建置5到10個具國際水準的國家生技實驗室。為達成前述目標,生技人才規劃宣示未來將分別實施以下各項政策措施,包括:持續給予優秀人才科研經費支援、鼓勵支持生物技術人才創業、加速生物技術人才在產學研各領域間的流動、制定優先支持生物產業技術人才發展的財政金融政策,以及吸引海外高層次生物技術人才回國創業或參與重大科研計畫等。 自2006年以來,中國於各個重大科技與產業政策規劃中,均將生物技術列為國家重點發展領域,顯見中國對於生技產業的重視,而根據往例,中國在發布重大國家政策規劃綱要以後,國務院各部門隨即會頒布相關法令及配套措施,以達成規劃綱要中所揭示的各項發展目標。因此,「生技人才規劃」頒布後,其後續相關的人才引進法制架構將如何呼應、達成綱要所訂的總體發展目標,值得持續觀察。
日本修訂《數位行政推動法》,完善行政機關雲端服務之使用環境日本自2002年制定《活用資訊通信技術推動行政相關法律》(情報通信技術を活用した行政の推進等に関する法律,現簡稱《數位行政推動法》)以來,已歷經多次修正,旨在因應國家面臨數位轉型時代,持續調整法規以促使資訊通信技術有效應用於行政領域,並提升國家行政效率、改善國民使用政府服務之便利性為目的。日本數位廳(デジタル庁)於2024年12月9日向日本國會提出修正案,經通過後已於2025年3月8日開始施行。關於《數位行政推動法》本次修正重點簡要如下: 1. 增訂第18條第1項、第2項,要求中央(国家)與地方政府(地方公共団体)共用雲端服務環境之規章制度: 透過立法要求中央(国家)應採取相關必要措施,使地方政府(地方公共団体)能共用雲端服務,並促進公共資訊系統的有效利用,以及完善資訊系統之開發與維運,據以強化資訊共享基礎。 2. 增訂第18條第3項、第4項,使行政機關利用雲端服務之責任明確化: 明訂各行政機關,應提供行政事務專用的雲端服務,並開發符合服務需求之公共資訊系統,據以有效提升政府公共服務品質。 3. 增訂第19條第1項至第3項,要求中央(国家)與地方政府(地方公共団体)建立共同使用雲端服務之相關費用規章: 有關雲端服務提供者(Cloud Service Provider,簡稱CSP),包含AWS、Google Cloud、Microsoft Azure等,與行政機關簽訂相關之雲端服務合約,若地方或民間因使用同一雲端服務而須另支付CSP雲端使用費時,為強化公部門雲端服務基礎環境治理,依本條規定授權先由日本各府省廳、地方政府、行政法人等先向數位廳支付雲端服務使用費,再由數位廳統籌後向CSP支付款項,同時由數位廳訂下規格要求,以利公部門採購作業,促使行政機關與CSP之間的合約、雲端服務品質等得到一元化管理。 日本為了促進國家之行政事務能更有效率地推展,透過立法要求中央與地方間之行政機關應完善雲端服務基礎環境供行政事務專用,與建立相應之費用規章,以強化機關間資訊共享。不僅如此,依據本次修正之第18條「應採取必要措施」,其未來所採用之行政規則與具體實踐方式,如何有效提升行政資訊系統效率,仍可持續關注其發展情況。日本藉由持續完善法規與操作機制,打造中央與地方能夠共享、互通的公務體系雲端服務環境,提升人民使用數位化公共服務品質之作法,值得我國未來參考借鏡。
何謂「國家科學技術發展計畫」?「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。 全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。
聯合國教科文組織發布《人工智慧倫理建議書》草案聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。 其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。 由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。