數百萬計個人資料遭竊取 引起美國重視資料保護

  美國接連發生電腦仲介商 ChoicePoint NexisLexis 分別於 2004 10 月及 2004 4 月電腦遭入侵,數以百萬計的個人資料被竊取之事件,使得個人資料外洩的問題,受到美國國會的強烈關注。此一事件的發生,同時讓大家注意到加州資料庫外洩通知法( SB1386 )對於消費者保護的重要性。 SB13866 法要求持有個人敏感資料的組織、企業,當資料外洩時,需立即通知當事人。 Choice point 此次即是迫於加州州法的規定,於 2005 2 月通知了 3 5 千名加州州民關於其個人資料遭受竊取的的消息。


  鑑於個人資料保護的重要性,美國國會議員 Charles Schumer ( 紐約州 ) and Bill Nelson ( 佛羅里達州 ) 仿照 SB1386 加州立法,於 2005 4 12 日舉辦了「 2005 年個人資料保護風險通知義務法案」( Notification of Risk to Personal Data Act of 2005 )的公聽會。草案建議成立聯邦性法律,要求企業或政府,一旦其持有之個人資料遭到竊取,即需通知當事人。本草案同時明訂企業或政府應通知的事項;並擬允許,讓資料遭竊的個人,可於其信用報告中顯示其 7 年內可能遭受詐欺警告的紀錄。


  本法案中除了包含 SB1386 的規定外,也對販賣個人敏感資料進行規範,並要求聯邦貿易委員會( Federal Trade Commission )設立相關組織,以協助資料遭竊之被害者。

 

相關連結
※ 數百萬計個人資料遭竊取 引起美國重視資料保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=681&no=64&tp=1 (最後瀏覽日:2025/12/19)
引註此篇文章
你可能還會想看
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

美國奈米容器 挑戰舊有法規

  隨著奈米科技之迅速發展,相關議題焦點已擴及美國食品包裝業,並有待進一步明確規範,以保障消費者安全。由新興奈米材料計畫(Project on Emerging Nanotechnologies,PEN)以及食品雜貨製造協會(Grocery Manufacturers Association,GMA)於2008年6月提出「確保奈米材料使用於食品包裝之安全性(Assuring the Safety of Nanomaterials in Food Packaging: The Regulatory Process and Key Issues )」研究報告,結合產、官、學與公益團體之意見,分別就食品生產過程中,研究「應於何時評估奈米材料之毒性」以及「奈米包裝材質對於食物的潛在危機」。   該報告內容指出,以往係由美國食品暨藥物管理局(FDA)與環保署(EPA)負責管制一般食品包裝材質;FDA以「聯邦食品、藥物及化妝品法」(Federal Food, Drug and Cosmetic Act,FEDCA)中的食品添加物(food additive)條款為規範主軸,而EPA則以「聯邦除蟲劑、殺菌劑及滅鼠法」(Federal Insecticide, Fungicide, and Rodenticide Act,FIFRA)作為管理食品包裝材料之依據;近年來業界認為奈米材料有助於保存食品,漸而應用於食品包裝技術上,惟現行關於奈米微粒之資訊仍未完全,且舊有法規已不敷使用,因此必須蒐集大量數據資料並訂立明確規範,盡可能減低包裝容器所產生的潛在危機,以確保消費者與食品成分皆安全無虞。   該項研究採公開對話方式,區分為法制、科技與產業等三個小組,各有其研究目標: (1)法制面:確立奈米尺寸之定義、檢驗奈米尺寸物質是否能列入食品添加物之範疇。 (2)科技面:分析奈米微粒之物理與化學性質、評估使用奈米材料對於環境的衝擊。 (3)產業面:嘗試建立奈米包裝材質之生命週期。   即便該報告尚未能指引出明確的解決之道,其仍出於增進對話之目的,以表格整理現有資料並提問,藉以促使產業與政府機關進一步思考問題之方向,並尋求科學性的解決方式。

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

韓國最高法院判決以虛擬貨幣買賣現金之交易為合法

  韓國最高法院於2010年1月10日,針對一項以線上遊戲貨幣換取現金所構成之刑事案件做出最終判決,認定此一行為並不違反韓國遊戲產業振興法施行令第18條 之3之禁止交易規定,從而不構成犯罪。   本案事實為兩名知名線上遊戲「天堂」(Lineage)之玩家陸續於2007-2008年間,以其於該遊戲中所購得,約值2億3千4百萬韓圜之虛擬貨幣「天幣」(Aden),陸續轉賣給其他約2000位遊戲玩家,以賺取價差。該案於2008年經釜山檢察廳依違反遊戲產業振興法施行令起訴,並聲請簡易判決後,兩名玩家分別被處以5百萬及3百萬韓圜之罰金。經兩名玩家提起正式裁判請求後,釜山地方法院仍維持簡易判決之結果,僅將罰金降至4百萬及2百萬韓圜。兩名玩家仍以不服判決為理由上訴至釜山高等法院。於此一上訴審中,釜山高等法院即以該交易所使用之虛擬貨幣並非來自於線上賭博遊戲或其他射悻性之途徑,故不違反韓國遊戲產業振興法施行令第18條 之3之規定,改判兩名玩家無罪。就此一上訴審判決,檢察廳另以該知名線上遊戲仍帶有諸多射悻或運氣成分,從而其取得虛擬貨幣之方式與賭博遊戲相似為理由,向最高法院提起上訴;唯最高法院認釜山高等法院之判決認事用法並無違誤,從而駁回檢察廳上訴,本案判決確定。   對於此一判決,各方反應並不一致。於最高法院判決出爐後,韓國文化觀光體育部即發表正式聲明,表示此一無罪判決係基於法院認定本案缺乏相關認定「不正常遊戲管道」是否存在之證據,而並非一律認定虛擬貨幣與現金之間的買賣或兌換交易均為合法。但一般遊戲產業界均認為,此一判決之作成確實開啟了線上遊戲中另一種獲利市場之可能性。如再配合2009年9月韓國法院所作成對於線上遊戲中的虛擬貨幣交易須課徵10%加值稅的判決進行觀察,則此種交易方式是否會對於韓國整體遊戲產業發生結構性之重大影響,應值得期待。

TOP