數百萬計個人資料遭竊取 引起美國重視資料保護

  美國接連發生電腦仲介商 ChoicePoint NexisLexis 分別於 2004 10 月及 2004 4 月電腦遭入侵,數以百萬計的個人資料被竊取之事件,使得個人資料外洩的問題,受到美國國會的強烈關注。此一事件的發生,同時讓大家注意到加州資料庫外洩通知法( SB1386 )對於消費者保護的重要性。 SB13866 法要求持有個人敏感資料的組織、企業,當資料外洩時,需立即通知當事人。 Choice point 此次即是迫於加州州法的規定,於 2005 2 月通知了 3 5 千名加州州民關於其個人資料遭受竊取的的消息。


  鑑於個人資料保護的重要性,美國國會議員 Charles Schumer ( 紐約州 ) and Bill Nelson ( 佛羅里達州 ) 仿照 SB1386 加州立法,於 2005 4 12 日舉辦了「 2005 年個人資料保護風險通知義務法案」( Notification of Risk to Personal Data Act of 2005 )的公聽會。草案建議成立聯邦性法律,要求企業或政府,一旦其持有之個人資料遭到竊取,即需通知當事人。本草案同時明訂企業或政府應通知的事項;並擬允許,讓資料遭竊的個人,可於其信用報告中顯示其 7 年內可能遭受詐欺警告的紀錄。


  本法案中除了包含 SB1386 的規定外,也對販賣個人敏感資料進行規範,並要求聯邦貿易委員會( Federal Trade Commission )設立相關組織,以協助資料遭竊之被害者。

 

相關連結
※ 數百萬計個人資料遭竊取 引起美國重視資料保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=681&no=55&tp=1 (最後瀏覽日:2026/01/19)
引註此篇文章
你可能還會想看
日本公布「特定數位平臺之透明性及公正性提升法」之透明性及公正性評鑑指標

日本經濟產業省(METI)於2022年12月22日於官網公布「特定數位平臺之透明性及公正性評鑑」報告(特定デジタルプラットフォームの透明性及び公正性についての評価),首次針對擁有數位平臺的大型IT(Information Technology)企業完成交易機制透明性及公正性評鑑,並要求被評鑑之企業進行改善。 該評鑑依據「特定數位平臺之透明性及公正性提升法」 (特定デジタルプラットフォームの透明性及び公正性の向上に関する法律,以下稱「透明化法」),透明化法於2020年5月通過並已在2021年2月施行。其目的是為了提高交易之透明性以及公正性,具體指定「特定數位平臺」之企業,並列為評鑑對象,課予其有揭露或公開特定訊息,與進行改善的義務。 本次的評鑑內容,是依該法第4條第1項、第8條以及第9條第2項所定,交易條件之資訊揭露義務為基礎,由日本經濟產業大臣指定數位平臺企業(提供者の指定),進行個案評鑑(評価)並要求其改善(勧告)。依據個案評鑑之內容,日本針對數位平臺之透明度及公正性之判斷,歸納出下列具有共通性之指標: 1.企業有揭露交易條件之義務 2.企業有完善交易機制之義務 3.企業有積極處理用戶申訴與糾紛之義務 4.針對應用程式商店(アプリストア),課徵手續費(手数料)與會員付款結帳(課金)方式之限制,企業有詳細說明之義務 5.企業本身或關係企業與平臺其他用戶之間須公平競爭,例如:企業與直營或非直營商店之間,具有利害關係或有優待行為時,企業須公開其管理方針,並列入內部稽核事項,使其能檢視差別對待之正當性。 6.停用帳戶或刪除之手續,企業在30天之前,就該處置之內容和理由,對消費者有通知之義務。 7.退款或退貨之流程,企業有積極和具體說明之義務,且須將處置成果公開。 關於評鑑對象之指定,是依同法第4條第1項所授權,由日本經濟產業省進一步於2021年2月1日頒布政令,以事業種類與規模進行區分。此外,被列為評鑑對象之企業必須在每年5月底前,各自將企業內部的因應措施,提交總結報告,並由經濟產業大臣進行審閱。值得注意的是,依評鑑結果所要求的改善措施,原則上以企業自主改善為要旨,但日本政府目前正商討今後是否需要以強制力介入;對於被列為評鑑企業之後續改善措施及透明化法之推動方向,值得作為我國數位平臺治理政策之借鏡與觀察。

美國士兵曼寧因向「維基解密」網站洩漏國家外交及軍事情報而遭起訴22項罪名

  美國的情報分析員一等兵布蘭德利.曼寧(Brandly Manning),被控訴22項包括通敵罪、非法取得並散布外交及軍事機密的文件給「維基揭密」網站等妨害國家安全罪名,現被拘禁在馬里蘭州的米德堡。     曼寧一審由軍事法院審理,但軍事上訴審法院認為管轄權有爭議,為決定是否繼續適用軍事法院的審理程序,今年10月10日舉行預審聽證會,由五人一組的普通法院法官受理。同時,維基解密、憲法人權中心、美聯社等新聞媒體,均要求軍事法庭依憲法第一修正案,提供曼寧案的相關卷宗資料,但政府發言人查得費雪上尉(Captain Chad Fisher)表示,第一憲法修正案沒有絕對的效力,也未賦予法院公開卷宗的義務。若記者和大眾想獲得案件的文件資料,可透過「情報自由法」申請。但依「情報自由法」的申請程序非常冗長,而且美聯社和曼寧的辯護律師大衛.庫姆斯(david Commbs)的申請都已遭拒絕,律師大衛只能在私人網誌上向關心曼寧案的民眾公布案件進度和內情。     憲法人權中心的律師Shayana Kadidal 表示,不公開卷宗資料,就算參與了聽證會也無法理解案件的真實面貌,而無法做出準確的報導。但軍事法院對於憲法人權中心、新聞媒體及公眾要求公開法庭卷宗的訴求依然無動於衷。軍方和憲法人權中心將在之後會提交聲請,解釋為何他們認為軍事上訴審法院有權裁決卷宗是否公開。     曼寧下次庭期是明年2月4日,若通敵罪成立,曼寧將會被判終身監禁。

英國最高法院Unwired Planet v Huawei案認定英國法院有權決定FRAND全球專利組合授權條款

  英國最高法院於2020年8月26日,駁回華為與中興通訊在Unwired Planet v Huawei和Conversant v Huawei and ZTE案的上訴決定。美國公司Unwired Planet和Conversant控訴華為及其他智慧手機製造商,侵害其所擁有的英國專利技術,其中包含由國際標準制定組織(Standard Setting Organization, SSO)與歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)所制定的2G、3G及4G無線通訊標準必要專利(Standards Essential Patents, SEP)。依據ETSI智慧財產權政策(Intellectual Property Policy, IPR),SEP權利人必須以公平、合理和無歧視條款(Fair, Reasonable and Non-discriminatory, FRAND)向實施者進行授權。英國最高法院根據ETSI政策所制定的契約內容,應賦予英國法院管轄權,更能決定多國專利組合的全球授權條款。若華為拒絕支付法院認定的FRAND全球授權金,法院將會頒布禁制令,禁止華為在英國銷售侵權產品。   首先,關於本案管轄權爭議,最高法院認為,在沒有雙方協議管轄的情況下,英國法院具有本案管轄權,得發給禁制令並確定專利授權費率等授權條件。原則上,專利有效性與侵權爭議,應由授予專利的該國法院決定,然而本案依據ETSI智慧財產權政策所訂定的契約,已約定由英國法院管轄,並得決定包括外國專利在內的專利組合授權條款。   另外,本案關於FRAND無歧視爭議,係源於華為主張Unwired Planet先前給予Samsung較低的授權費率,對華為構成歧視性授權。最高法院認為,Unwired Planet未違反FRAND無歧視承諾,蓋依據ETSI智慧財產權政策,FRAND無歧視並非硬性(hard-edged)要求前後授權費率完全一致,而是指所有市場參與者,基於專利組合的市場價值,都能取得專利授權使用的合理權利金價格表,絕非強制SEP所有人對類似條件的被授權人提供相同的授權條件。本案法院也認同,基於經濟或商業實務上的習慣,調整個別授權金,並未違反ETSI智慧財產權政策的無歧視要求。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP