用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限
資訊工業策進會科技法律研究所
2023年09月08日
生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。
惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。
壹、事件摘要
Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。
R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。
貳、生成式AI應用之潛在風險
雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]:
一、能源使用及對環境危害
相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。
二、能力超出預期(Capability Overhang)
運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。
三、輸出結果有偏見
生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。
四、智慧財產權疑慮
生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。
五、缺乏驗證事實功能
生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。
六、數位犯罪增加與資安攻擊
過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。
七、敏感資料外洩
使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。
八、影子AI(Shadow AI)
影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。
參、事件評析
在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。
當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。
雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。
[1] Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.).
[2] Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023).
[3] Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023).
[4] Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023).
[5] Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
馬來西亞政府計劃於2018年推行就業保險計畫(Employment Insurance Scheme,EIS),為受雇人提供一個就業的社會安全網包括失業津貼和培訓支持,計畫內容: 適用範圍:典型受雇工作者。 基金管理機構: 社會安全機構(Social Security Organisation,SOCSO)。 保護內容:為被裁員工提供三個月至六個月的臨時財政援助。例如,在求職津貼下,失業人員可以獲得第一個月的假定月工資的80%,第二個月的50%,第三個月和第四個月的40%,第五個月和第六個月的30%。 保險費用:雇主必須負擔受僱人月薪之0.2%,僱員亦須繳納受僱人月薪之0.2%。繳費將根據員工的工資按固定比例計算。保費繳納之上限為收入4000令吉(Riggit Malaysia,RM)以上者,繳納的最高貢獻額為59.30令吉。 罰則:一萬元以下或兩年以下有期徒刑。 根據國際勞工組織(ILO)一項研究顯示,2011年越南失業人員中只有5%受到失業保險的保護,泰國則為25%。即使在非典型工作者較無問題出現的國家,失業人員的有效覆蓋率通常在40%到50%之間。主要原因在於,失業保險只包括典型工作者,然而亞洲較多數人為非典型工作者。 另一方面,2016年馬來西亞提高最低工資增加雇主負擔,使雇主感受到高額成本的壓力。推行就業保險計畫雇主所需承擔之成本又再次增加。這使得雇主不得不傾向選擇短期契約工作或外包工作。使得雇主減少雇用正式員工,本身待遇與福利居於弱勢的非典型工作者增加,反而使得計畫可以保護範圍縮小加深非典型工作者不平等問題。面對目前全球非典型工作者人數有快速膨脹趨勢,以及雇主捨棄高成本的雇用方式。如何立法保護或改善非典型工作者就業環境,將成為就業保險計畫另一個重要的核心議題。
英、美等國拒絕簽署新全球電信規則由聯合國「國際電信聯盟」(the UN's International Telecommunication Union ,ITU)主持的國際電信世界大會(the World Conference on International Telecommunications ,WCIT)於2012年12月14日在杜拜落幕,此次有193個國家的政府代表與會,主要議題討論是否要更新自1988年以來已經24年未經修改的全球電信規則(the International Telecommunication Regulations ,ITRs),該修正案主要係由中國與俄羅斯所提出,其有意授權政府監管網際網路,盼望各國能合作打擊垃圾郵件並促進網路的普及。 這項修正案最大爭議點就在「人權」二字。若政府擁有網路審查權成為普世價值,保護言論自由是否將流於口號,某些習慣高壓政策的國家是否會濫用審查權,控制輿論進行不當審查與管制? ITU秘書長Hamadoun Touré認為網際網路應該納入全球電信政策框架下,但反對派則認為此舉扼殺了網路自由,美國代表團團長Terry Karamer則主張,網路政策不應由聯合國成員國來定,應該由公民、社群以及更廣大的社會來決定。 經過激烈的辯論之後,共有89國支持這項修正案,而包括美國、加拿大、澳洲和英國在內的55個國家已經拒絕簽署,該修正案將於2015年1月1日生效,由於修正後的新規定必須經過所有成員國同意才具全球約束力,大會呼籲未簽署或已經拒絕簽署的55國應盡速簽署。
LV賣炸雞?南韓炸雞店仿作LV名稱及圖騰遭控商標侵權一名南韓金姓男子以「LOUIS VUITON DAK」為名開設炸雞店,於2015年9月遭法國精品品牌Louis Vuitton Malletier(以下簡稱LV)提起商標侵權訴訟,法院判決金姓男子應停止使用與LV近似的商標和圖騰。近日(2016年4月)法院認為金姓男子未遵從禁令,仍持續使用與LV商標近似的店名,判決金姓男子賠償1450萬韓元(約41萬元台幣)。 金姓男子以韓文全雞「tongdak」的諧音,將炸雞店命名為「LOUIS VUITON DAK」,並於炸雞外帶餐盒及紙巾上,印製使用與LV商標圖騰極為相似的圖案。此舉引來LV的不滿,於2015年9月向南韓法院提起訴訟,認為金姓男子使用LV的近似名稱販賣炸雞,將對LV的品牌形象帶來嚴重損害。2015年10月,法院要求金姓男子立即停止使用近似LV的商標圖騰及店名,否則將處以一日50萬韓元的罰款。金姓男子後將店名改為「chaLouisvui tondak」,然而LV仍認為該店名與其商標有部分雷同。法院同意LV的主張,認為金姓男子雖更改了店名拼法,但其讀音仍與「LOUIS VUITON DAK」幾乎相同,因此以一日50萬韓元的罰款金額,計算使用新店名的29日,判決金姓男子須向LV賠償1450萬韓元。 【本文同步刊登於TIPS網站(http://www.tips.org.tw)】
美國國家製造創新網絡2016年度報告依2014年復甦美國製造與創新法(Revitalize American Manufacturing and Innovation (RAMI) Act of 2014),美國國家製造創新網絡計畫於2016年2月公布年度報告(Annual Report)。國家製造創新網絡計畫的目標是處理發生於執行面的、介於初期基礎研究與技術布建之間的製造技術轉型(manufacturing related technology transition)挑戰。 國家製造創新網絡計畫的關鍵核心之一,是連結創新與製造,而「研發機構」(Institute)在這當中扮演最為關鍵的角色。此所稱之研發機構,係指2013年「國家製造創新網絡先期規劃」(NNMI-PD)以及2014年復甦美國製造與創新法(RAMI Act of 2014)第278s條(c)項所界定之「製造創新中心」(center for manufacturing innovation)——其採公私合營制(public-private partnership),其成員可包括各該業界之業者與學研機構,以及商務部長認屬適當之產業聯盟(industry-led consortia)、技職教育學校、聯邦政府所屬實驗室、以及非營利機構等。「研發機構」將以上之利害關係各方匯聚形成一個創新生態系(innovation ecosystem),以共同因應高風險之製造業挑戰並協助製造業者維持並提升產能與競爭力。 我國於民國105年7月由行政院核定通過之「智慧機械產業推動方案」,亦規劃透過「智機產業化」與「產業智機化」,建構智慧機械產業生態體系,整合產學研能量,並深化智慧機械自主技術中長期布局與產品創新。