澳洲司法部長Mark Dreyfus於2022年10月26日提出聯邦《2022年隱私法修正案(執法及其他措施)》(Privacy Legislation Amendment (Enforcement and Other Measures) Bill 2022 (Cth) ),並於11月28日正式通過,顯示澳洲政府對於近期多起大型個資事故的重視,以及民眾對於個資保護之公民意識逐漸成熟。
近期澳洲發生之兩起大規模個資事故,其一為9月底澳洲第二大電信業者Optus表示受到網路攻擊,約有1,000萬人(約占澳洲人口40%)的個資遭到外洩,除了姓名、性別、生日等資料之外也包括用戶的住址、駕照和護照號碼等;無獨有偶,於十月底澳洲最大的私人健康保險公司Medibank亦公開聲明發生200GB的資料遭到竊取的個資事故,被竊資料中有大約970萬名現在或過去客戶的姓名、出生日期、地址、電話號碼和電子郵件地址等資料,因為此兩起大型個資事故的發生,促使澳洲政府不得不予以重視,在極短時間內通過新法修正。
此次修正案修改1988年《隱私法》(Privacy Act)、2010年《澳洲資訊委員法》(Australian Information Commissioner Act)和2005年《澳洲通訊及媒體管理局法》(Australian Communications and Media Authority Act 2005),修正重點包含加重裁罰、加強資訊委員執法權限及域外管轄權。
一、加重裁罰之部分,依修正《隱私法》第13G條,當嚴重或反覆侵犯他人隱私事件發生時,若行為人為「非法人」(a person other than a body corporate,即我國法之自然人)時,其由行政機關課予當事人之罰金(civil penalty)上限提高到250萬澳幣(約新台幣5,200萬);若行為人為「法人」(body corporate)時,罰金上限增加到5,000萬澳幣(約新台幣10億)或其所得利益價值的三倍(兩者取其高)。如果法院無法確定利益的數額,則取法人違規期間或事故發生後12個月內(擇其時間較長者)調整型營收(adjusted turnover*)的30%。
二、關於資訊委員執法權限強化部分,其擴大資訊委員與他公私部門間交換及查閱資訊之權限,資訊委員得向嫌疑人進行調查或要求交付相關證據,且賦予資訊委員得不待法院裁判,逕對妨害查辦者課以民事制裁,甚至得將屢次妨害查辦之法人團體之行為定為刑事犯罪。
三、有關域外管轄權部分,原先僅適用於「未在澳洲設立登記,但有在澳洲境內蒐集個資且經營業務」之公司;現刪除「有在澳洲境內蒐集個資」之規定,故未在澳洲登記之公司往後即使未在澳洲境內蒐集個資,若有在澳洲境內經營業務即受有域外效力之管轄,其範圍甚至將比歐盟GDPR之域外管轄權更為寬廣。
至於提高裁罰金額能否提升資安及個資保護之效益仍有待商榷,惟提高罰鍰額度應能使持有個資業者採行較高之資料保護安全措施等級。我國近期亦發生2,300萬筆民眾戶政資料外洩事件,依我國《個人資料保護法》規定,個資事故發生時,若被害人不易或不能證明其實際損害額時,法院依侵害情節,以每人每一事件500以上至2萬元以下計算財產損害。且同一原因事實造成的事件,原則上其賠償最高總額以2億元為限。若我國將來修法適當調整金額,相信有望遏止類似事故不斷發生。
*調整型營收(adjusted turnover):指公司(及相關企業)在違規期間內營業額扣除應調整之稅額例外項目後,所有商品及服務價值的總和。
2025年7月30日,美國加州法院指出公司濫用合作談判地位以爭奪再生能源市場之行為,從商業角度極為惡劣,將面臨重大法律風險,並認定Phillips 66能源公司須向Propel Fuels(下稱Propel)競爭公司給付共約8億美元的賠償金。 本案源於2017年,Phillips 66公司以收購為由,雙方簽署收購意向書,對Propel公司進行盡職調查。於此期間,Propel公司依保密契約向Phillips 66公司揭露其再生柴油專屬策略與資訊,Phillips 66公司並從 Propel 下載近 3千份包含營業秘密的紀錄。於2018年8月24日,Phillips 66公司突然終止收購並於下一工作日向加州監管機構宣布其將加入加州再生能源市場,2019年正式銷售高混合可再生柴油。 2022年2月16日,Propel公司向加州法院控訴Philips 66公司不當使用Propel公司花費13年研發得出之財務與銷售資料、營運模式及其再生能源業務的預測資料等營業秘密,致Propel公司損失2億美元。於2024年10月16日,本案認定Phillips 66公司違反加州統一營業秘密法(Uniform Trade Secrets Act),不當使用Propel公司的營業秘密, Phillips 66公司應賠償6.049 億美元。其後,本案認定Phillips 66公司行為屬惡意不當使用營業秘密,依加州統一營業秘密法,法院可另將懲罰性賠償金增加至2倍。2025年7月底,本案認定之賠償金達到8億美元,包含自2024年之6.049億美元的補償性賠償金,以及因Phillips 66公司「惡意」不當使用營業秘密的行為,追加1.95億美元的懲罰性賠償金。 綜觀前述實務案例可得知,即便公司間已簽訂保密契約,仍存在公司假借併購盡職調查、合作協商為由,要求他公司提供機密資料。為降低與外部合作而衍生之機密外洩風險,以下為公司提供資料對外之前、中、後階段可參考之管理建議: 1. 對外提供資料前 (1) 內規定義營業秘密搭配機密分級,了解營業秘密之範圍,並依據不同機密等級採取相應的管制措施。 (2) 對外提供資料前,營業秘密相關之權責人員應審查資料適合揭露與否。 (3) 與外部合作協商前,即應確認簽訂保密契約與約定權利歸屬。 2. 已對外提供資料 倘若已對外提供資料,建議採取限制流通、限制權限等作法,如僅限該合作計畫相關人員透過身分認證登入帳號,方有線上瀏覽機密之權限等方式。 3. 對外提供資料後 於合作結束或協商破局之情況,應要求合作方返還或銷毀營業秘密,如為銷毀,應附上相關聲明並佐證執行紀錄。 前述建議之管理作法已為資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」所涵蓋,企業如欲精進系統化的營業秘密管理作法,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
德國交通部與歐洲道路安全資料工作組簽署多方協議,透過車聯網分享交通狀況資料以提升道路安全德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)於2020年12月2日公布與道路安全資料工作組(Data Task Force for Road Safety)成員簽署多方協議,以促進交通資料於道路維運單位、聯網車、智慧基礎設施間傳輸交換,進而透過最新技術識別道路危險狀況,以提升交通安全。 道路安全資料工作組係由歐盟成員國、車輛製造商、相關應用服務提供商所組成的公私合營夥伴關係,其任務為透過政府與產業相關利益者之合作,促進道路安全性資料可跨品牌和跨國界共享,並於公平可靠的合作夥伴關係下,促進公平競爭。 而在多方協議中,歐盟成員國,道路交通管理單位,汽車製造商和供應商以及地圖服務提供商等成員,承諾進行長期資料交換,並於協議中定義如何在安全相關交通資訊(Safety Related Traffic Information, SRTI)生態系統內,以公平、可靠的方式近用相關資料,並規定合作夥伴於SRTI價值鏈中應扮演的角色與責任,和透過分享安全相關的的資料,進而提供安全性服務。而在簽署本協議前,已成功完成可行性研究,在2019年6月至2020年10月間,不斷地測試SRTI系統並交換共數百萬筆資料,包括危險事故現場、暫時性濕滑路面、視野受限、特殊天候狀況等資訊。而在初步測試報告指出,透過上述資料交換,可發出相關危險交通狀況警告,能迅速有效因應各狀況作出適當的決策。
英國政府提出線上盜版刑期從2年延長10年英國政府提議將網路盜版者的有期徒刑從2年調整到10年的法律修正案,假使這修正案被批准,將會使網路著作權侵權刑責與實體侵權的刑責趨於一致。 英國智慧財產局公開了諮詢文件,提到利益人希望調整網路侵權的刑事制度,提高為10年的有期徒刑的訴求。英國政府同意網路著作權侵權導致的嚴重損害不少於實體盜版侵權的損害。此項修正案的嚴刑峻罰對於網站擁有者的影響將大於個人侵權者。政府文件指出,此修正案特別針對設法透過網路廣告和訂閱費用獲利的犯罪活動。 英國的智慧財產部長Baroness Neville-Rolfe說道,創意產業帶動超過7萬億經濟價值,應著重保護創意產業遠離網路犯罪集團。對於商業規模的網路犯罪行為採取嚴峻的刑罰,將可提供產業更大的保護,並可明確傳遞清除犯罪的決心以嚇阻罪犯。 政府針對諮詢文件提供六周的時間供個人和組織對此已知的提案提供意見,一旦政府進一步對此議題的回應進行評估與審查,可預期未來幾個月即可獲知此法律修正案最終的決定。 將網路侵權的刑期提高到10年已經是第二次推動,在2005年Gowers智慧財產權審查報告中已經提議提高刑責2年到10年,但在當時政府拒絕此項提議,因為當時政策僅針對嚴重或危險的罪犯處以監禁服刑。