加州法院判決刪除公司電腦之個人資訊非屬犯罪行為

  美國加州北區聯邦地方法院,於去年(2017年)12月5日做出關於雇員刪除其由公司提供電腦中與公務無關資料是否屬電腦犯罪之判決(United States v. Zeng, 4:16-cr-00172(District Court, N.D. California. 2017).)。

  該案情為曾(Zeng)氏為避免其竊取自家公司商業機密行為被揭發,而逕自刪除其在公司提供筆記型電腦內之相關資料。而嗣後仍然被公司發現並報案,於此偵查單位FBI則以曾氏違反電腦詐欺及濫用法案(Computer Fraud and Abuse Act,下稱CFAA)中「未經授權而毀損他人電腦(18 U.S.C. § 1030(1984).).」以美國政府名義(下稱控方)起訴曾氏刪除其犯罪證據之行為。

  對於該控訴,被告曾氏以被刪除之電子紀錄與其業務無關,非為公司所有財產為由作為抗辯。此外曾氏同時以其他判決主張毀損電腦之定義應係指由外部傳輸行為所致(如駭客行為),電腦使用者自己刪除行為應不包含之,以及控方未舉證其刪除行為將導致公司有不可回復或無法替代之損害作為抗辯。於此,控方則以刪除行為不應以內容而有所區分作為回應。

  在審理期間,承審法官多納托(Donato)氏除參酌控辯雙方證詞外,並特別詢問控方律師指控內容是否會對一般大眾造成其在公用電腦中刪除同類資訊上之顧慮。而控方則以曾氏行為屬特殊情況作為答辯。最後,多納托氏則以控方主張將造成社會恐慌以及控方未提出被告刪除資料行為究竟對公司有何實際損害,判決被告無罪。

相關連結
你可能會想參加
※ 加州法院判決刪除公司電腦之個人資訊非屬犯罪行為, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8037&no=55&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
父母對子女網路使用法律責任之相關德國判決-由『國小生轉貼 YouTube 連結被控侵害著作權』新聞談起

美國提出消費者隱私保護法案

  美國政府於今年(2012年)02月23日提出「消費者隱私保護法案」(Consumer Privacy Bill of Rights),總統歐巴馬認為:「為保護美國消費者網路上的個人資訊,清楚的法律已刻不容緩。電子商務的成功,必須讓消費者感到安全…,保護消費者的資訊能確保網路交易平台的成長」。   白宮提出的法案中明確點出下列幾項值得關注的議題:1、獨立控制:消費者有權了解自身資料被誰蒐集,以及他們如何使用這些資料。2、透明度:消費者能容易的了解隱私及資訊安全的訊息。3、考慮內文:消費者有權期待蒐集個人資料的組織,處理個人資料的方式能提供消費者知悉並且言行一致。4、安全:消費者的個人資料應受到安全可信任的保護。5、近用與正確性:消費者有權查詢與更正個人資料。5、集中蒐集:企業僅能有限度的蒐集消費者資訊。6、責任:消費者有權要求蒐集資訊的公司妥善保管個人資料並遵循「消費者隱私保護法案」。   美國商務部及資訊管理局會將在未來幾周進行細部的規劃,並尋求技術專家、業界、學者的意見,商務部將研擬相關具體可行的做法。

美國「刑事鑑識演算法草案」

  美國眾議院議員Mark Takano於2019年10月2日提出「刑事鑑識演算法草案」 (Justice in Forensic Algorithms Act),以建立美國鑑識演算法標準。依據該法第2條,美國國家標準與技術研究所(National Institute of Standard)必須建立電算鑑識軟體之發展與使用標準,且該標準應包含以下內容: 一、以種族、社會經濟地位、兩性與其他人口特徵為基礎之評估標準,以因應使用或發展電算鑑識軟體,所造成區別待遇產生之潛在衝擊。 二、該標準應解決:(1)電算鑑識軟體所依據之科學原則與應用之方法論,且於具備特定方法之案例上,是否有足夠之研究基礎支持該方法之有效性,以及團隊進行哪些研究以驗證該方法;(2)要求對軟體之測試,包含軟體之測試環境、測試方法、測試資料與測試統計結果,例如正確性、精確性、可重複性、敏感性與健全性。 三、電算鑑識軟體開發者對於該軟體之對外公開說明文件,內容包含軟體功能、研發過程、訓練資料來源、內部測試方法與結果。 四、要求使用電算鑑識軟體之實驗室或其他機構應對其進行驗證,包含具體顯示於哪個實驗室與哪種狀況下進行驗證。此外,亦應要求列於公開報告內之相關資訊,且於軟體更新後亦應持續進行驗證。 五、要求執法機關於起訴書或相關起訴文件上應詳列使用電算鑑識軟體之相關結果。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP