歐洲人權法院(ECtHR)認為土耳其政府封鎖網站之行為,有違歐洲人權公約言論自由規定

  歐洲人權法院(ECtHR)在去年(2012)12月作出一項因封鎖網路而侵害言論自由的判決。該判決認為土耳其政府封鎖整個Google網站的行為,已違反歐洲人權公約第10條關於言論自由之保障。

 

  土耳其法院在2009年審理侮辱有土耳其國父之稱的凱末爾將軍案時,判決封鎖設在Google平台的某網站,但土耳其通訊主管機關(Telecommunications Directorate)向法院建議,因技術上問題,建議封鎖整個Google網域才能達到效果,此舉連帶影響本案上訴人架設於Google平台上的網站也一併遭致封鎖,上訴人在窮盡國內訴訟程序後,進而向歐洲人權法院提告。

 

  歐洲人權法院認為,網路目前已經成為表達言論的一個重要工具與場域,根據歐洲人權公約第10條規定,立法限制言論自由必須明確,以便當事人能夠遵循。但土耳其法令(Law no. 5651)並無可封鎖整個網域之相關規定;此外,亦有證據顯示土耳其政府並未盡告知義務,且該網路平台Google亦無拒絕遵循當地國法令之情形;至於通訊主管機關建議法院封鎖整個Google網域行為,亦違反土耳其法令(Law no. 5651)之授權範圍。因此歐洲人權法院認為土耳其政府已經違反歐洲人權公約第10條規定。

 

  根據歐洲安全與合作組織(Organization for Security and Co-operation in Europe)的調查指出,在2012年土耳其政府至少封鎖了3700個網站,包括YouTube、DailyMotion、Google等知名網站。

 

  而總部設在倫敦的維護言論自由知名組織Article19(取名自世界人權宣言第19條言論自由保障而來)主任Agnes Callamard博士也指出,本案是網路言論自由的重大勝利,尤其是當前各國政府積極尋求各種網路管制手段時,更應注意立法限制言論自由必須具有明確的法源基礎且應有救濟管道,以落實歐洲人權公約保障言論自由之意義。

相關連結
※ 歐洲人權法院(ECtHR)認為土耳其政府封鎖網站之行為,有違歐洲人權公約言論自由規定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5975&no=64&tp=1 (最後瀏覽日:2026/04/21)
引註此篇文章
你可能還會想看
英國政府推動Midata計畫,促進智慧商業創新及跨產業應用

  近來國際間許多國家投入智慧商業及智慧消費之發展,為兼顧保障個人資料權利前提下,鼓勵產業界從事商業創新,英國商務創新技術部(Department for Business, Innovation & Skills)於2013年7月宣布促成「Midata創新實驗計畫平台」(midata innovation lab),由英國政府、企業界、消費者團體、監管機構和貿易機構共同組成,此為示範性自律性組織,參與之業者/機構於應消費者要求(consumer’s request)情形下,將所擁有消費者資料,特別是交易資料(transaction data),以電子形式及機器易讀取形式(electronic, machine readable format)對「我的資料」(Midata)體系公開(release);並且,將可更便利消費者利用這些資料瞭解自己的消費行為,在購買產品和服務時可以做出更為明智的選擇。   英國商務創新技術部係於2011年4月,開始提出所謂「Midata計畫」:於「更好選擇;更好交易環境;提昇消費者權力」政策(Providing better information and protection for consumers),宣示推動「Midata計畫」,作為提昇資訊力量(power of information)重要策略。為積極推動,「Midata計畫」,並協助產業界能有更詳細遵循指引,於2012年7月公告「Midata政府產業諮詢報告」(midata: government response to the 2012 consultation),同年12月出版「Midata隱私影響評估報告」 (midata: privacy impact assessment report)。   為配合上述政策施行,由產業界、組織、政府機構所共同組成的「Midata創新實驗計畫平台」(midata innovation lab),已開始展開運作。此平台認為,近來越來越多實務情形證明,個人資料對於企業而言已被視為日漸重要的資產,並且未來將成為提供更個人化、多元化之產品服務之重要基礎。倘若能在確保消費者個人資料相關權利之前提下,促成產業界積極投入發展,以「我的資料(Midata)創新實驗計畫」為運作平台,對於企業所持有個人資料,兼顧企業與消費者原則共同獲益,將可因應趨勢取得商業先機。   以英國商務創新技術部規劃政策,前期試行推動先以「核心產業」(core sectors)(金融產業、電信產業、能源產業)為導入適用,待實施具一定成效後,將延伸推廣至其他產業領域(non-core sectors),而後也將由現行初期以產業自律性參與計畫模式,進展至以法令規範強制實施的階段。

美國參議院司法委員會通過草案 擬規範學名藥給付延遲訴訟和解協議

  為禁止藥廠間持續利用「給付遲延和解協議」(pay-for-delay settlements)來延遲低價學名藥品上市,美國參議院司法委員會(Senate Judiciary Committee),日前已表決通過由參議員Herb Kohl 所提之「保障低價學名藥品近用法草案」 (Preserve Access to Affordable Generic Drugs Act 【S. 369】),並已提交兩院,進行後續之討論及審查。而就該新法草案內容,大致上,是為解決品牌藥廠因採逆向給付(Reverse Payment)和解協議以阻礙學名藥品上市時,將帶來長期用藥與醫療成本增加等問題之目的而設。   而就前述所提及之訴訟協議模式來說,原則上,在品牌藥商為解決藥品專利訴訟問題之前提下,透過給付學名藥品廠商數百萬美元報酬(即補償金)之方式,來做為換取學名藥廠同意並承諾願將該公司學名藥產品延緩上市條件之對價,並藉此以保存系爭藥品原先既存之市場利潤。而對此類將嚴重影響大眾日後近用低價藥品權益之和解協議,美國聯邦貿易委員會(Federal Trade Commission;簡稱FTC)業已於近期內,作出完整之分析報告,其指明,若政府能終止此類和解協議,除將可於往後十年間,可為聯邦政府減低近120億美金之預算支出外;同時,亦可為民眾節省下近350億美金之醫療成本。   此外,由於受FTC該份分析報告之影響,於先前司法委員會之表決過程中,委員對此類訴訟和解所採之態度,也產生重大轉變,亦即,其從最初肯認可提出充分證據並證明將不會損及正常藥廠間競爭之和解協議,轉而改為,應嚴格限制此類訴訟和解協議之產生;同時,為嚇阻藥廠間給付遲延訴訟協議之達成,於此項新法草案中,亦新增相關處罰之規定。   最後,參議員Kohl強調:「一旦此項草案通過,除將可終結過往那些罔顧消費者權益之不當競爭行為外;從長期影響之角度來看,該法案亦可為公眾省下每年約數十億美金之用藥花費」。。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP