德國電信服務法下訊息儲存服務提供者之法律責任

刊登期別
第20卷,第7期,2008年07月
 

※ 德國電信服務法下訊息儲存服務提供者之法律責任, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2897&no=55&tp=1 (最後瀏覽日:2026/02/17)
引註此篇文章
你可能還會想看
BEREC推出網路中立性原則指南

2016年8月底,歐洲電子通傳監管機構(Body of European Regulators for Electronic Communications, BEREC)根據歐洲議會(European Parliament)與歐盟理事會(Council of the European Union)通過的第2015/2120號規章(下稱2120號規章)第5條第3項的規定,推出規範歐盟各會員國國家監管機構(national regulatory authorities, NRAs)落實網路中立性原則的指南,為歐洲近年積極鼓吹數位人權運動寫下勝利的一頁。 該指南主要針對2120號規章以下幾條進行細部說明: 1. 第一條:規範主體與範圍; 2. 第二條:定義; 3. 第三條:網路中立權利的保障; 4. 第四條:確保網路中立的資訊透明措施; 5. 第五條:監管機制; 6. 第六條:罰則; 7. 第十條:規章實施與過渡條款。 指南補充說明了原先規章中,各條條文的相關細部規範。BEREC不只對各條規範中較為模糊的敘述提供明析的論述,同時也強化NRAs規範網路服務供應商(internet service provider, ISP)應提供網路中立服務的拘束力。 該指南的立場旨在希望歐洲網路終端用戶近用網路的權利受到更為完善的保障,且為了達成這樣的目標而為ISPs所提供的服務設下了更為嚴苛的門檻。不過BEREC也表示,ISPs可以在不影響其他終端用戶的權利及傳輸速率下,為特定服務提供特別的服務方案,例如:即時醫療服務(real-time health services)。當然,針對這些特定服務,各國NRAs必須加以監管以確保其他網路終端用戶的權利。 雖然該指南對歐盟各會員國的NRAs有行政指導上的指標意義,不過有趣的是,英國通訊傳播管理局(Office of Communications, Ofcom)身為BEREC的會員,但英國已非歐盟會員,Ofcom是否會提出適用英國自己的網路中立性規範,以及歐盟各會員國對於該指南的適用狀況值得繼續追蹤。

Skype多了測謊功能?

  以色列BATM公司研發出Skype整合性軟體-KishKish,未來將提供消費者以付費的方式使用測謊功能。此軟體係透過分析談話者聲音中的緊張程度,告知軟體使用者「對方是否說謊」。如此一來,使用者便可透過軟體分析出來的指示,而即時修正詢問的問題。據說,美軍已開始運用此套軟體!   雖然KishKish的使用如此便利,但是根據英國專家表示,網路使用者若不當使用KishKish,將可能違反「資料保護法」(Data Protection Act)而負擔民事責任,甚至還可能涉及「調查權規範法」(Regulation of Investigatory Powers Act,RIPA)將被處以兩年以上有期徒刑或科以罰金。   至今,Skype仍尚未公布其價格及發布日期。

歐盟部長理事會通過開放GSM頻段供3G寬頻技術使用

  歐盟部長理事會(Council of Ministers)已跟隨歐洲議會腳步,通過對「GSM 指令」(Global System for Mobile Communications Directive)進行修改的提案,准許電信營運商在900 MHz頻段上提供UMTS服務(3G通訊技術之一,可向下相容GSM與GPRS),例如WCDMA通訊架構可於900 MHz上運用。這項決議仍須經過歐盟各會員國國會和監督機構認可,預計2009年10月開始實施。   原先指令在1987年所提出,將900 MHz和1800 MHz頻段劃歸GSM手機專用,此作法有效促進GSM產業的蓬勃發展。修改該指令的提案,則是允許讓900 MHz頻段在繼續供GSM服務使用的同時,也開放給行動上網等更高速的泛歐洲通訊服務。預估將能大幅降低電信營運商網路建制成本,可減少大約16億歐元的支出。   據歐盟電信委員會Viviane Reding委員表示,GSM Directive的修訂,將為行動通訊業者解除限制,並因此能在GSM頻段上建置更先進的技術,以提供高速行動寬頻服務;她預期這將有效促進歐洲的無線經濟(wireless economy),並催生「數位歐洲」(Digital Europe)的誕生。相關發展值得台灣電信通訊產業注意。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP