歐洲議會呼籲尊重網路人權

  歐洲議會於2009年3月26日,以大多數支持Lambrinidis報告中關於網路上個人自由保護之投票結果,反對法國政府和著作權行業提出的修正案。歐洲議會的態度是「保障所有公民接近使用網路就如同保障所有公民接受教育」,而且「政府或私人組織不能以處罰之方式拒給這種接近使用的權利」。歐洲議會議員要求會員國政府需體認到網路是一個有效增加公民權利義務之特殊機會,就這方面而言,使用網路及網路內容是一個關鍵要素。

 

  這份報告被歐洲議會議員所採用,得以認識到提供安全措施來保護網路使用者(特別是孩童)之必要性,由於使用者可能會因使用網路,而暴露在成為罪犯或恐怖份子的犯罪工具的風險中。報告中提出方案對抗網路犯罪,但同時也要求在安全及網路使用者基本權利保障中尋求平衡點。 此報告否定法國所提之修正案,歐洲議會又再度否決由法國努力推動「網路侵權三振法案」(three strikes file-sharing law)。歐洲議會認為對於所有網路使用者的監測活動及對於侵權者之處罰有違比例原則。歐洲議會亦公開支持「網路權利憲章」(Internet Bill of Rights)以及推動「隱私權設計」(privacy by design)宗旨。

相關連結
※ 歐洲議會呼籲尊重網路人權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3052&no=67&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
歐盟消費契約管轄權規定介紹

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

英國次世代5G策略

英國文化、媒體暨體育部2017年3月8日發布「次世代行動技術:英國的5G策略」,此舉將會加速英國網路基礎建設更新並促進智慧聯網之發展。這份策略書提出了幾個重要方面來採取行動: 建構經濟實例:英國政府計畫建立新的5G試驗場,和企業共同合作發展5G科技。此試驗場預計同時在城市和偏遠地區進行,以了解不同地區環境下建設的效益,且與Ofcom合作了解目前環境與法規障礙。 調適法規:政府會持續檢查相關法規是否需要修正,並與試驗場合作了解現行法規是否適當。 地方區域的治理與能力建構:意識到地方區域於建構基礎建設的重要性,因此英國政府正在諮詢地方政府如何在地方區域進行5G建設,將會將地方政府、政府部門、土地擁有者和企業等集合組成工作小組進行5G策略的諮詢。 覆蓋率與能力匯流:政府將於2017年底前了解人類生活、工作與旅遊需達成之高品質覆蓋率要素,並於2025年前達成這些要素目標。 確保安全的5G布建:5G試驗場將會與重要安全組織如國家網路安全中心合作,以支持和發展新的安全建築來達到消費者對於5G的期待與需求。 頻譜:政府將要求Ofcom檢視現行頻譜授權策略並於2017年底提出報告,以促進4G至5G轉型。 科技與標準:政府將會持續和標準機關合作,監督市場安全與供應者的發展。

德國首例因Twitter超連結的裁定出爐

  根據德國法蘭克福地方法院日前於4月20日的一則假處分裁定(Beschluss vom 20.04.2010, Az. 3-08 O 46/10),禁止被告以超連結方式,讓點取該鏈結的人,得以連結到刊登有損害原告商業信譽的文章頁面。   本件事實起源於一名匿名的網友在不同的網路論壇中,發表刊登有侵害原告商業信譽的言論,而曾經與原告有商業上往來的被告,利用自己Twiiter帳戶,發表超連結,並在鏈結網址下加上「十分有趣」的文字,讓看到該訊息的朋友,都可以點選鏈結連接到這些不利於原告商業信譽的文章、言論。原告因而向法院申請假處分裁定,禁止被告以超連結方式繼續為有損原告商業信譽的行為。 法蘭克福地方法院的這起裁定,被視為是德國國內第一起法院對Twitter等社群網站的警告,德國輿論各界也普遍認為,法院透過裁定對外明白宣示社群網站使用者往往誤認網路社群空間為「半私人場域(須加入好友才得以分享資訊、留言等)」,在自己的帳戶上發表心得、感想、分享文章等行為,還是有構成侵權責任的可能性。   該裁定出爐後,德國各界則開始討論被告設定超連結的行為是否構成網路侵權責任,持贊成意見者認為,即使該違法言論非被告本人所發表,被告設定超連結的行為,也讓自己與該違法言論「合而為一(zueigen gemacht)」,也就是,讓外界以為該違法言論就是被告本人所撰寫刊登;根據德國電信服務法(Telemediengesetz, TMG)第7條規定,內容提供者須為「自己」的言論負擔法律責任。   反對者則拿其他超連結的案例舉出,法院認定被告是否構成網路內容提供者的侵權責任,通常會檢視被告對於該違法言論的內容是否知悉、被告是否違背其檢查監督義務(Überprüfungspflicht),例如被告須為一定行為藉以與原撰文者劃清界線等。但因各該檢驗標準都係由法院依據個案加以認定,讓人無所適從,產生網路侵權行為的判斷標準過於浮動之疑慮,德國國會也因此著手進行電信服務法的修法。

TOP