美國法院推翻過去電子郵件監視案件之判決立場

  美國上訴法院於八月於判決中指出,電子郵件服務提供者未經使用者同意對於其傳送、接收之電子郵件加以監視,應為犯罪行為,即使服務提供者僅利用使用者經由其伺服器傳送郵件時的自動暫存過程進行監視,亦構成未經使用者同意的「攔截」 (intercept) 行為,違反監聽法 (Wiretap Act) ,而構成犯罪,推翻該國法院過去所建立「電子郵件服務提供者未經使用者同意監視使用者電子郵件通訊,不屬違反監聽法之犯罪行為」的立場。


  被上訴人 Bradford C. Councilman 是從事珍貴與絕版書籍網路建擋列表服務之 Interloc Inc. 的副總裁,該公司給與其顧客含有 "interloc.com" 網域名稱之電子郵件地址作為服務的一部份,並且提供如同電子郵件服務提供者之服務行為,本案起因於 1998 Bradford 指示該公司雇員透過修改郵件接收程序之方式,攔截並拷貝所有服務使用者與其競爭對手亞馬遜網路書店 (Amazon.com) 間的電子郵件通訊,亦即,所有來自 Amazon.com 的信件到達伺服器時,由於程式的運作,該信件於寄至使用者信箱前會先行複製,由 Interloc 公司員工加以閱讀。


  本上訴法院之判決,乃針對電子郵件的傳送是否屬於監聽法中所謂的電子通訊 (electronic communication) 以及該公司之行為是否構成「攔截」皆作成肯定之解釋,對於電子郵件使用者隱私權之保護有指標性的影響

相關連結
※ 美國法院推翻過去電子郵件監視案件之判決立場, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=683&no=64&tp=1 (最後瀏覽日:2026/04/03)
引註此篇文章
你可能還會想看
何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

OECD公布「為中小企業永續發展提供資金—推動力、阻力和政策」研究報告

  OECD於2022年12月6日公布一份標題為「為中小企業永續發展提供資金—推動力、阻力和政策」(Financing SMEs for sustainability — Drivers, Constraints and Policies)的報告,報告中檢視現行支援中小企業參與永續金融的工具與政策,並指出政府在制定公共政策與支援措施時應考慮的要點,期能加速中小企業的綠色轉型。   報告中首先分析中小企業綠色轉型的阻力與推動力。在阻力方面,中小企業由於規模小,不易取得銀行的融資,也無多餘人力關注綠色議題與相關可用資源的發展,因此不敢貿然從事具有高度不確定性的綠色投資,綠色轉型意識普遍低落。更由於中小企業永續金融生態系的參與者廣泛,包括國際及國家法規和準則的制定者、政策制定者、永續資金提供者、ESG的中介機構等,這些永續機構、工具及實踐行動會隨著永續金融發展持續增加,令中小企業無所適從。在推動力方面,包含消費者的永續意識提升、越來越多金融機構與投資者將永續績效納入投資決策考量,以及氣候變遷與淨零轉型帶來的商機,皆使得中小企業有必要加強綠色轉型的努力,才能從淨零商機中獲利,免於陷入競爭劣勢。   為了提高中小企業綠色轉型的動機,OECD建議可透過財務性及非財務的支援,雙管齊下。目前財務性的支援以融資工具為主流,其它還有綠色基金、補助金、津貼、補貼、減稅、降低費用、股權或混合式的支援工具等。非財務性的支援則有與永續相關的技術支援、意見提供、諮詢服務和教育培訓等。這些主要是透過政府、金融機構、或是國際倡議進行,也有政府及民間機構獨自或合作建立的線上平台,提供一站式的服務,使得資源的取得更加便捷有效率。   中小企業永續金融仍存在許多問題需要進一步了解與因應,包括中小企業的淨零轉型意識與知識間的落差、永續金融資訊的不足、環境績效評量與報告能力的欠缺,以及該如何強化中小企業永續金融生態系,以增加永續金融的供需量等。OECD未來會繼續深入探究這些議題,支援落實「2022年G20/OECD更新中小企業融資高級別原則」(the 2022 Updated G20/OECD High Level Principles on SME Financing)中新增的「加強永續金融」原則,這顯示推動中小企業永續金融已是國際共識,我國政府與業者也應及早擬訂對策因應之。

英國身份證立法-我國之借鏡?

TOP