西班牙政府要求網路搜尋引擎業者Google刪除有關於90位公民之個人資料搜尋結果。西班牙政府主張當事人具有「被遺忘之權利」(the right to be forgotten),但Google認為西班牙政府之要求將衝擊表達自由之權利。目前全案已進入訴訟程序。
該事件之主因為西班牙民眾發現透過網路搜尋引擎,可以搜尋包含地址、犯罪前科等個人資料。經民眾向西班牙隱私權保護機關(Spain Data Protection Agency)提出申訴後,西班牙政府命令Google刪除申訴民眾之個人資料之搜尋結果。
然而,Google的全球隱私顧問Peter Fleischer於個人部落格中提出個人意見,表示目前歐盟並未對於推行之「被遺忘之權利」給予明確定義,此舉將引起資訊科技發展與法律規範間之爭議。
近來歐盟所進行之民意調查指出,多數歐洲人希望能夠隨時要求網路公司刪除於網路上公開之個人資料,也就是希望擁有「被遺忘之權利」。所謂「被遺忘之權利」,係指只要是於網路上流傳且容易被搜尋之個人資訊,例如年代久遠或是令人尷尬的內容,當事人皆有權利要求刪除。
然而,根據1995年歐盟隱私保護指令(EU Data Protection Directive)所制定之各國個人資料保護法,對於「被遺忘之權利」並無著墨。故有些專家認為,為因應資訊科技之發展,應透過個人資料保護法制之修訂,確認此權利之存在,以避免模糊不清之情形。
標準制定組織為了提高產業競爭,防止標準制定組織之會員們,在獲得涵蓋產業標準的專利權後,以壟斷性手段壓迫其他競爭對手,故通常會以智慧財產權政策要求參加的會員揭露其被標準制定組織選擇寫入標準的專利。其重要內容通常包括: 1. 必要專利揭露 許多標準制定組織皆有規定,標準必要專利權人應依以誠實信用及適當方式進行揭露之義務,例如IEEE及ETSI 。即對於討論中的技術標準,必須對標準制定組織及其參與者公開揭露所持有的必要專利。揭露的基本目的主要有三項 : (1) 使標準開發相關工作小組會員可以掌握納入標準之多項候選技術的基本資訊(例如專利技術價值、成本及可行性等等),並做出適當選擇。 (2) 藉此得知須提出授權聲明或承諾的必要專利權人。 (3) 藉此讓必要專利的潛在實施者得知應向那些必要專利權人獲取必要專利相關資訊。 2. 事前揭露授權條款(ex-ante disclosure of licensing terms) 事前揭露授權條款係一種受保護之技術在被採納為標準必要專利前,將授權條件的揭露的機制,目前IEEE及ETSI採行自願性揭露方式。與必要智財權的揭露及授權聲明不同,其主要的目的在於讓標準制定委員會將技術採納為標準前,可以根據所揭露的授權條件來決定有那些技術在符合權利人授權條件下,有哪些技術可以納入標準,又有哪些不同替代技術,並據以作成決定 。
標準必要專利與反托拉斯之成果運用法制-以高通案為例 用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
歐洲人權法院(ECtHR)認為土耳其政府封鎖網站之行為,有違歐洲人權公約言論自由規定歐洲人權法院(ECtHR)在去年(2012)12月作出一項因封鎖網路而侵害言論自由的判決。該判決認為土耳其政府封鎖整個Google網站的行為,已違反歐洲人權公約第10條關於言論自由之保障。 土耳其法院在2009年審理侮辱有土耳其國父之稱的凱末爾將軍案時,判決封鎖設在Google平台的某網站,但土耳其通訊主管機關(Telecommunications Directorate)向法院建議,因技術上問題,建議封鎖整個Google網域才能達到效果,此舉連帶影響本案上訴人架設於Google平台上的網站也一併遭致封鎖,上訴人在窮盡國內訴訟程序後,進而向歐洲人權法院提告。 歐洲人權法院認為,網路目前已經成為表達言論的一個重要工具與場域,根據歐洲人權公約第10條規定,立法限制言論自由必須明確,以便當事人能夠遵循。但土耳其法令(Law no. 5651)並無可封鎖整個網域之相關規定;此外,亦有證據顯示土耳其政府並未盡告知義務,且該網路平台Google亦無拒絕遵循當地國法令之情形;至於通訊主管機關建議法院封鎖整個Google網域行為,亦違反土耳其法令(Law no. 5651)之授權範圍。因此歐洲人權法院認為土耳其政府已經違反歐洲人權公約第10條規定。 根據歐洲安全與合作組織(Organization for Security and Co-operation in Europe)的調查指出,在2012年土耳其政府至少封鎖了3700個網站,包括YouTube、DailyMotion、Google等知名網站。 而總部設在倫敦的維護言論自由知名組織Article19(取名自世界人權宣言第19條言論自由保障而來)主任Agnes Callamard博士也指出,本案是網路言論自由的重大勝利,尤其是當前各國政府積極尋求各種網路管制手段時,更應注意立法限制言論自由必須具有明確的法源基礎且應有救濟管道,以落實歐洲人權公約保障言論自由之意義。