美國眾議院一致通過電子郵件保護法案

  美國眾議院於2016年4月27日一致同意通過支持電子郵件保護及雲端隱私法案(Email Privacy Act, EPA),本法案之後將會要求執法部門於搜查電子郵件或儲存於雲端設備的資料時,必須向法院取得搜查令,才能取得超過180天以上的資料。

  本法案係針對1986年推出的《電子通信隱私法(Electronic Communication Privacy Act, ECPA》進行補強,因為目前科技的進步,早已遠超過ECPA是在網路興起前所得規制的範圍,在當初ECPA法案訂定之初,人民仍有定期刪除E-mail以保持硬碟空間的習慣,但相較於現在多數人都已使用雲端信箱的習慣下,如仍能讓警方等恣意調查任何人的信箱,往往可取得巨量的消息,因此本次的修正可預期將更能使相關規範符合時宜需求。

  本次修正重點如下:
1.過往之ECPA規定要求聯邦機構在調查超過180天的電子郵件時只需要取得傳票即可,現在則是需要取得搜查令。
2.要求政府機構必須先取得法院的搜查令,才可以要求供應者揭露其保有之資訊。
3.要求執法部門應於取得資料的10天內向資料被揭露者提供相關證明,如涉及政府單位者則縮短至3天。

  雖然EPA在眾議院內獲得美國兩黨的一致通過,但仍須經參議院下一波的投票表決,才能決定本案是否得順利通過。

相關連結
※ 美國眾議院一致通過電子郵件保護法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7282&no=67&tp=1 (最後瀏覽日:2026/03/25)
引註此篇文章
你可能還會想看
歐盟針對數位化單一市場著作權指令法案達成改革性修正

  2019年2月13日,歐盟針對數位化單一市場著作權指令(Directive on Copyright in the Digital Single Market,2016/0280(COD))(下稱著作權指令)之爭議條款第11條及第13條進行討論修正,並達成共識。   從2016年9月,歐盟委員會提出修改新版著作權法,一直到去年9月12日,通過「著作權指令」法案,兩年多的改革過程始終產生多方爭議;其中,最具爭議性的有兩大條款:第11條「連結稅」(link tax),是要求網路平台業者在使用或摘錄其著作內容時,需向上傳的出版、新聞業者支付授權費用,對於Google、YouTube等網路巨擘易造成傳播新聞資訊的阻礙;而第13條「上傳過濾器」(upload filter),則是強調網路平台業者需負監督責任,防止上傳者侵權行為,現今流行的模仿搞笑影片、歌曲混音、翻唱影片等涉及部分著作權問題者,都有可能受到法規影響而大量減少。   近二十年以來,網路平台業者大多可以避免侵權責任,只要他們不知道上傳的內容侵權,並在發現侵權後立刻將內容移除。此次,著作權指令將加強規範於網路平台業者的行為,要求平台業者建立有效過濾機制,適當監督新聞傳播及熱門資訊之分享,並保護出版業、新聞業、文創產業等的著作權,且未來允許網路平台業者須支付授權費給著作權人。   此次修正的著作權指令法案,歐洲議會將預計於3月或4月進行投票,確認修法是否通過。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

美國聯邦交易委員會提出巨量資料報告,關注商業應用之潛在歧視性效果

  美國聯邦交易委員會(Federal Trade Commission, FTC)於2016年1月6日公布「巨量資料之商業應用」報告(Big Data: A Tool for Inclusion or Exclusion? Understanding the Issues),報告中歸納提出可供企業進一步思考之數項議題,期能藉此有助於企業確保巨量資料分析應用之正當合法性,並避免產生排除性或歧視性之對待,但同時亦能透過巨量資料之分析應用為消費者帶來最大的利益。FTC主委Edith Ramirez表示,巨量資料之重要性於商業之各領域均愈發凸顯,其對於消費者之潛在利益自是不言可喻,然企業仍應確保巨量資料之利用不會產生傷害消費者之結果。   「巨量資料之商業應用」報告經徵集公共意見與彙整相關研究後,聚焦於巨量資料生命週期的後端,亦即巨量資料被蒐集與分析之後的利用。報告中強調數種能幫助弱勢群體的巨量資料創新利用方式,例如依病患之生理特性量身訂作並提供醫療照護,或是新的消費者信用評等方式。報告同時也指出可能因為偏見或資料錯誤帶來的風險,像是信用卡發卡銀行降低某人信用額度的原因並非基於該持卡人之消費與還款記錄,而是與該持卡人被歸為「同一類型」之消費者所共同擁有之記錄與特徵。其次,報告對巨量資料於商業領域之利用可能涉及之法規進行了初步盤點,包括公平信用報告法(Fair Credit Reporting Act, FCRA)、與機會平等相關之聯邦立法—像是基因資訊平等法(Genetic Information Nondiscrimination Act, GINA)、以及聯邦交易委員會法,報告也列出7項預擬提問,協助企業因應巨量資料商業利用之法令遵循問題。

美聯社(AP)在紐約對VeriSign提出侵權訴訟以禁止其使用AP所有之新聞報導內容

  美聯社(The Associated Press, AP)於十月九日在「南紐約聯邦地方法院」(SDNY),正式地向世界權威的數碼核證服務供應商VeriSign及其子公司Moreover Technologies提出違反著作權與商標權等侵權訴訟。根據AP向法院所提出的起訴狀中主張七項訴因,內容以被告違反聯邦著作權法及紐約州的商標法等相關法律規定,其中包含VeriSign及Moreover Technologies製造出與AP的虛偽聯結( False Association)而違反了商標法案-Lanham Act等。AP在起訴狀中也主張因被告上開侵權行為及非法侵入AP的電腦主機而違反紐約州「非法侵入他人動產罪」(Trespass to Chattels)之行為,故同時請求聯邦法院准予核發永久禁止令,以禁止被告使用AP所有的新聞報導內容並刪除被告公司電腦內所有屬於AP所有之著作財產權。   本案被告之Moreover Technologies最早標榜透過網路新聞的搜集、分類及傳送的方式,成為提供即時新聞、當前知識及商業資訊之先驅,其在該公司的網頁上使用AP所有超過兩萬五千筆的新聞內容。而同案被告VeriSign,於二○○五年十月份以約略美金三千萬的現金將Moreover Technologies合併。AP的總裁暨執行長Tom Curley表示,任何未得AP之授權同意而自行搭載(Free Riding)使用AP所有之新聞內容之人,其行為已對新聞記者的著作財產權造成莫大的損失,AP從成立至今,已有三十二各新聞記者因公殉職。基於上開理由,AP向法院請求被告因侵權所獲得之利益及懲罰性損害賠償。

TOP