2022年2月23日,歐盟委員會(European Commission,以下簡稱委員會)公開資料法案草案(Data Act,以下簡稱草案),基於促進資料共享的目的,草案其中一個目標是使不同規模的企業、用戶在資料利用上有著更加平等的地位,內容包含確保用戶資料可攜性、打破資料存取限制、推動大型企業的資料共享,扶植微/小型企業等幾大方向。
以下就草案對大型企業要求的義務切入,說明草案所帶來的影響:
該資料法案草案須經歐盟議會(European Parliament)通過後才會生效,目前草案規定只要有在歐盟提供物聯網產品或服務之企業,就須遵守草案內容規範,考量到網路服務可跨國提供服務,草案規範與進度仍值得國內企業關注。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
英國衛生部發布基因檢測與保險自律行為準則英國衛生部(Department of Health and Social Care)於2018年10月23日發布基因檢測與保險自律行為準則(Code on genetic testing and insurance-A voluntary code of practice agreed between HM Government and the Association of British Insurers on the role of genetic testing in insurance),該準則係由英國政府及英國保險業者協會(Association of British Insurers, ABI)共同制定,旨在取代先前的「基因與保險之協定與延期實施」(Concordat and Moratorium on Genetics and Insurance)文件,並以更易於理解的方式呈現原「基因與保險之協定與延期實施」之內容。 準則中列出八項承諾,此八項承諾為ABI代表其成員議定: 承諾一:保險業者(Insurers)會公平對待要保人(applicants)。保險業者不會要求或迫使任何要保人進行預測性或診斷性基因檢測;若要保人已進行預測性基因檢測,保險業者亦不會對其作出差別待遇,除非有如下之情況。 承諾二:列入附錄一之疾病類型並超過以下金額之保單,保險業者始得要求要保人提供預測性基因檢測之結果: 人壽保險-500,000英鎊 /人。 重大疾病險-300,000英鎊 /人。 收入保障險-30,000英鎊 /年。 目前列入附錄一之類型僅有亨丁頓氏舞蹈症(Huntington’s disease)之人壽保險總額超過500,000英鎊之情形。 承諾三:保險業者不會要求要保人提供: 要保人或被保險人於承保期間所進行之預測性基因檢測結果。 非為要保人或被保險人本人(如要保人或被保險人血親)之預測性基因檢測結果。 於科學研究背景下獲得之要保人或被保險人預測性基因檢測結果。 承諾四:若保險業者基於承諾二之規定要求要保人提供預測性基因檢測結果,亦不會針對該結果制定過於苛刻(disproportionate)的條款或條件。 承諾五:保險業者須於要保人簽約前提供明確之訊息,以說明: 根據本準則,要保人在何種情況下必須或無須提供相關預測性基因檢測結果。 若要保人自願提供對其有利的預測性基因檢測結果,保險決策將如何被影響。 承諾六:若要保人基於意外或自願向保險業者提供預測性基因檢測結果,保險業者可考量要保人之利益調整保單內容;若檢測結果對要保人不利,除非符合承諾二之情形,否則保險業者將忽略該檢測結果。 承諾七:販售人壽保險、重大疾病或收入保障保險之保險業者將: 每年向ABI報告其遵守本準則之情況。 根據本準則問答部分之詳細資訊,建立投訴程序(complaints procedure)。 每年向ABI報告與本準則運作上相關之投訴情形。 承諾八:販售人壽保險、重大疾病或收入保障保險之保險業者將指定至少一名經培訓之基因核保人(Nominate Genetics Underwriter, NGU),負責與遺傳資訊(genetic information)及遵守本準則相關之事項,且NGU之人數應與業務規模成比例。
冰島政府贏得與英國連鎖超市Iceland Foods的商標戰歐盟智慧財產局(EUIPO , European Union Intellectual Property Office)裁定英國連鎖超市Iceland Foods(以下簡稱Iceland Foods),不得以「 Iceland」在歐盟申請註冊商標。 Iceland Foods成立於1970年,是英國的知名品牌,擁有超過800家的分店共有2.3萬名員工,主要販售海鮮等冷凍食品。這件商標爭議起源於2014年,Iceland Foods成功以「 Iceland」一詞在歐盟註冊商標,但冰島企業的冷凍魚類等產品,也有銷售到歐盟,冰島政府因而指控此結果,將造成冰島的企業,無法以「Iceland」標示其產品的來源國。此外,冰島政府也指出,「Iceland」已經被廣泛認知為地理名稱,本來就不經該允許其被註冊為商標。如今,歐盟智慧財產局支持冰島政府的主張,使英國連鎖超市的註冊商標「Iceland」完全無效。並進一步表示,歐盟國家的消費者了解冰島是歐洲的一國,也知道冰島不但與歐盟國家地理位置相接近,且與歐盟國家存在歷史與經濟方面的聯結。 冰島的外交部長表示樂見此結果,但並不感到意外,並表示此裁定對冰島的出口商,是一個重要且勝利的里程碑。冰島以純淨與永續聞名,因此產品的原產地標示「Iceland」具有價值。Iceland Foods則聲明表示,對此結果感到遺憾,並打算提起上訴。
國有研發設施開放近用之法制規範研析-以美日韓規定為核心