芬蘭創新研究發展基金(Finnish Innovation Fund, Sitra) 成立於1967年,是由芬蘭國會直接監督及管理的獨立性公共部門,為芬蘭第一個以科技為主旨的創業投資基金。Sitra設立主要目的是提供對創新企業或風險性專案提供無償資助或貸款,專門研究如何在芬蘭全方位各領域以創新帶動社會發展,使其在國際市場更具競爭力。Sitra為初創公司提供所需資金的15%到40%,待支持的項目成功後,獲取的回報即可再用於擴大投資,創造正向循環的投資環境。與芬蘭國家技術創新局(Tekes)相比,Sitra主要投資於公司和創業公司以創造有利可圖的新興業務;而Tekes為芬蘭經濟及就業部之一部分,主要資助大學、研究單位或私人公司進行科技研發,是芬蘭科技產業創新研發重要支柱。
本文為「經濟部產業技術司科技專案成果」
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
日本將數位廣告業者列入特定數位平台之透明性及公正性提升法適用對象日本於2022年7月5日閣議決定修正政令將數位廣告(デジタル広告)的大型數位平台(デジタルプラットフォーム)業者列入「特定數位平台之透明性及公正性提升法」(特定デジタルプラットフォームの透明性及び公正性の向上に関する法律)適用對象,修正政令於2022年7月8日正式公布,並預計自2022年8月1日開始施行。 日本於2020年5月27日通過特定數位平台之透明性及公正性提升法(以下簡稱本法),要求特定數位平台業者公開提供服務條件,主動積極採取因應措施並進行自我評估,以提升特定數位平台透明性與公正性,促進國民經濟健全發展。隨著數位平台重要度與日俱增,數位廣告的數位平台企業影響力亦逐漸擴大,甚至將對媒體事業收益結構帶來重大改變。日本於2021年6月18日閣議決定「2021經濟財政營運及改革基本方針」(経済財政運営と改革の基本方針2021)與「成長戰略實行計畫」(成長戦略実行計画),均提出須關注數位市場競爭環境,因應新時代統整數位廣告市場規則,將數位廣告的大型數位平台業者列入本法適用對象,整合數位平台透明性與公平性規則。 本次修正政令列入本法適用對象的數位廣告業者包含:一、日本國內營業額在1000億日圓以上的媒體整合型廣告數位平台。二、日本國內營業額在500億日圓以上的廣告仲介型數位平台。日本期望能藉由統整數位廣告市場規則,解決數位廣告市場的垂直整合問題,同時強化消費者隱私保護。
日本認可智遊網就其線上訂房服務經營策略可能違反公平競爭秩序所提出之約定改善計畫日本公平交易委員會(公正取引委員会,下稱日本公平會)於2022年6月2日宣布,已認可智遊網集團(Expedia,日文原文為エクスペディア)針對其網站線上旅館訂房服務經營方式可能違反公平競爭秩序的情形,所提出的約定改善計畫(確約計画)。依日本獨占禁止法第48條之2、第48條之3規定,受日本公平會通知有違反獨占禁止法疑慮的業者,於規定期限內提出約定改善計畫後,日本公平會審酌認為其計畫之落實能有效消除違法疑慮時,即得作成認可該計畫之行政處分。基此,智遊網集團後續得藉由落實該約定改善計畫,來排除上述經營方式牴觸獨占禁止法第19條禁止業者採取不公正交易方法規範的疑慮。 按獨占禁止法,其立法目的為確保與促進市場的公平與自由競爭,主要規範關於獨占、聯合與結合等行為;至於針對不公平競爭行為,則另訂「不正競爭防止法」加以規範,而與我國公平交易法合併規範獨占等與不公平競爭行為之立法架構有所不同。 根據日本公平會依獨占禁止法規定所進行調查,智遊網集團經營的線上旅館訂房預約網站Expedia,與位在日本國內的旅館設施經營經營業者所締結的契約中約定,日本旅館經營業者在Expedia網站上刊載提供的住宿費用與房間數等條件,需優於或至少等同於與該特定旅館業者在其他訂房服務通路所提供的條件。並且,智遊網集團進一步依據該約款,主動要求旅館經營業者遵守該條件,或由日本之智遊網分公司協助向旅館業者請求。日本旅館業者受此條款拘束,亦影響了與Expedia網站存在競爭關係的訂房網站經營業者之事業活動。例如,其他訂房網站經營業者自行負擔成本提供特定旅館業者之訂房優惠時,因其價格優於該旅館業者刊載於Expedia網站之條件,而被迫中止該訂房網站的優惠活動。 日本公平會於2022年2月25日將上述審查結果依獨占禁止法法第48條之2通知智遊網集團,要求其針對上述經營行為提出約定改善計畫,以恢復公平競爭秩序。而智遊網依此提出的約定改善計畫,主要內容包含: (1)停止、以及不再締結上述約款與要求業者履行約款等行為; (2)將上述決定與作為通知旅館經營業者、以及智遊網集團自家的員工; (3)定期向日本公平會報告上述改善措施的落實狀況等。
日本公布資料信託功能認定指引ver1.0並進行相關實驗日本總務省及經濟產業省於2017年11月至2018年4月間召開6次「資料信託功能認定流程檢討會」(情報信託機能の認定スキームの在り方に関する検討会),檢討具備資料信託功能之「資料銀行」認定基準及模範條款等事項,於2018年6月公布「資料信託功能認定指引ver1.0」(情報信託機能の認定に係る指針ver1.0),以利實現個人資料流通並創造新服務型態。資料銀行係指基於與個人間資料利用契約,透過PDS(personal data store)等系統管理個人資料,根據個人指示或預先設定的條件,於判斷妥當性後向第三方提供資料之行業。目前指引內容包括︰(1)資料信託機能認定基準︰具體內容包括業者適格性、資訊安全原則、資訊安全具體基準、治理體制、業務內容等;(2)模範條款記載事項︰針對個人與資料銀行、資料銀行與資料提供者、資料銀行與接受資料提供者間關係,列出具體應記載事項;(3)資料信託機能認定流程。 作為日本總務省「資料信託功能運用推動計畫」(情報信託機能活用促進事業)一環,日立製作所、東京海上日動火災保險、日本郵局等於2018年9月10日發表將根據「資料信託功能認定指引ver1.0」,進行「資料銀行」個資管理、提供及運用等實驗,參與者分別扮演資料提供者、資料銀行和資料利用者三種角色,未來將會參考實驗結果,提出認定基準改善建議。