歐盟最高法院宣佈2006歐盟資料保留指令無效

  歐盟最高法院認為,2006歐盟資料保留指令(EU data retention directive)授權各會員國以法律要求電信業或網際網路服務供應商保留人民通信及網路活動數據資料長達兩年、並允許提供給執法或安全服務部門(police and security service)的規定,係屬重大侵害隱私生活及個人資料保護兩大基本人權,因此宣告該規定無效。該判決起因於澳洲及愛爾蘭民間團體向歐盟法院提出申訴,目前28名歐盟會員國正共同起草新的資料保護法案。

  2006歐盟資料保留指令允許電信公司保留個人的ID、通信時間、通信地點及通信頻率。歐盟最高法院判決中表示,雖然肯定該規定對於偵查、追溯重大犯罪有其必要性及正當性,但對保留期間(6個月至2年)欠缺明確的保留標準,而過度侵犯個人隱私生活及未提供適當的個人資料保護措施,並不符合比例原則。

  針對此一歐盟最高法院判決的宣示意涵,英國政府發言人表示通信數據的保留對執法部門偵查犯罪及確保國家安全是絕對必要的,若電信公司無法保留並提供給執法部門,很可能危及國安。

  無論如何,歐盟最高法院的決定,重新宣告了人民隱私權及個人資料的保護不容國家任意侵犯,國家沒有權力任意的、不加區別的蒐集、保留一般人民的通信資料和網路行動,這是無視且扭曲基本人權的行為。該則判決為歐盟各成員國的資料保留法制開啟了新的里程碑。

相關連結
※ 歐盟最高法院宣佈2006歐盟資料保留指令無效, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6546&no=57&tp=1 (最後瀏覽日:2025/12/10)
引註此篇文章
你可能還會想看
知名品牌Burberry槓上好萊塢知名男星Bogart肖像權及商標權

  Burberry近期在社交網站臉書(facebook)的動態時報上上載了一張Bogart穿著Burberry風衣的照片,照片上傳後隨即吸引了上千萬粉絲按讚,但熱潮的席捲下也引來了侵權風波。   該照片為1942年"Casablanca"電影劇照,主角人物為於1957年去世的Bogart,其被美國電影協會公認為美國電影史上最棒的男性演員。因為Bogart於電影中傳神的飾演Rick Blaine角色,不僅在電影粉絲心中留下鮮明的文化表徵(cultural icon),更使得該張劇照贏得最佳照片獎(Academy Award for best picture)。   正因為Bogart的知名度以及該張電影劇照的受歡迎程度,Bogart後裔對於Burberry這樣的使用提出了抗議。Bogart後裔要求Burberry停止使用該張劇照,否則就要提起訴訟控告Burberry侵害Bogart的肖像權和商標權。在接受到Bogart後裔的要求後,Burberry隨即於紐約聯邦法院提出確認之訴,請求法院確認其使用並未侵害歸屬於Bogart後裔的商標或肖像權。因應Burberry的提告,Bogart後裔隨即於加州州法院提起商標侵權訴訟,請求法院發出禁制令,停止Burberry再使用Bogart的名字和任何照片。   雙方針對此一爭議各有主張及堅持。Burberry聲明該劇照是向專門從事照片、影像授權業務的Corbis公司取得授權而來,其主張使用該劇照主要是要描述Burberry在時尚產業的悠久歷史,以及該品牌的重要性及影響性,其並非利用該劇照來達到行銷Burberry的目的,所以其不認為開始用有任何侵權問題。此外,Burberry認為將該劇照使用在臉書的動態時報上這樣的行為是受到美國憲法第一修正案言論自由的保護。   Bogart後裔則認為Burberry使用劇照於市場行銷相關素材/媒介上,可明確看出其有意於Burberry實際及潛在消費者心中,將Burberry品牌及產品商業性連結至Bogart名人形象上,所以Burberry的行為已侵害到Bogart的商標權和肖像權。   Burberry及Bogart後裔雙方因應不同州法律採用策略性訴訟技巧,分別於紐約及加州提起訴訟,知名品牌和知名男星後裔的商標及肖像權之爭正式開戰,法院判決結果值得後續關注。

綠不綠有關係?!-論綠色資料中心及其相關能源效率法制政策

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。   德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。   例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

TOP