本文為「經濟部產業技術司科技專案成果」
歐洲人權法院(ECtHR)在去年(2012)12月作出一項因封鎖網路而侵害言論自由的判決。該判決認為土耳其政府封鎖整個Google網站的行為,已違反歐洲人權公約第10條關於言論自由之保障。 土耳其法院在2009年審理侮辱有土耳其國父之稱的凱末爾將軍案時,判決封鎖設在Google平台的某網站,但土耳其通訊主管機關(Telecommunications Directorate)向法院建議,因技術上問題,建議封鎖整個Google網域才能達到效果,此舉連帶影響本案上訴人架設於Google平台上的網站也一併遭致封鎖,上訴人在窮盡國內訴訟程序後,進而向歐洲人權法院提告。 歐洲人權法院認為,網路目前已經成為表達言論的一個重要工具與場域,根據歐洲人權公約第10條規定,立法限制言論自由必須明確,以便當事人能夠遵循。但土耳其法令(Law no. 5651)並無可封鎖整個網域之相關規定;此外,亦有證據顯示土耳其政府並未盡告知義務,且該網路平台Google亦無拒絕遵循當地國法令之情形;至於通訊主管機關建議法院封鎖整個Google網域行為,亦違反土耳其法令(Law no. 5651)之授權範圍。因此歐洲人權法院認為土耳其政府已經違反歐洲人權公約第10條規定。 根據歐洲安全與合作組織(Organization for Security and Co-operation in Europe)的調查指出,在2012年土耳其政府至少封鎖了3700個網站,包括YouTube、DailyMotion、Google等知名網站。 而總部設在倫敦的維護言論自由知名組織Article19(取名自世界人權宣言第19條言論自由保障而來)主任Agnes Callamard博士也指出,本案是網路言論自由的重大勝利,尤其是當前各國政府積極尋求各種網路管制手段時,更應注意立法限制言論自由必須具有明確的法源基礎且應有救濟管道,以落實歐洲人權公約保障言論自由之意義。
WiMAX頻譜開放 攪亂一池春水 歐洲人權法院認定義大利稅務機關對銀行用戶資料存取享過大且欠缺有效司法或獨立監督之裁量權,違反ECHR歐洲人權法院(European Court of Human Rights,簡稱ECtHR)於2026年1月8日就Ferrieri and Bonassisa v. Italy一案作成判決,認定義大利稅務機關儘管為稅務稽查目的享有查閱當事人銀行資料,但相關授權規定賦予了政府查閱措施之範圍與條件的絕對裁量權,缺乏避免恣意裁量之程序保障,違反歐洲人權公約(European Convention on Human Rights, ECHR)對隱私權之保障。 本案起源於申訴人接獲其銀行通知,表示接獲稅務機關要求,須提供特定時間段內與申訴人相關或可追溯至申訴人之銀行帳戶、交易紀錄及其他金融活動之資料。銀行並表示將配合稅務機關之要求。 申訴人不服,主張法律及相關規定未就請求銀行提供資料的情形或條件進行足夠細緻的規定,亦未就稅務機關行使調閱權設計有效的事前及事後控制程序,從而賦予稅務機關不受約束的裁量空間。 義大利稅務機關則回應,為履行其「核查納稅人提交的申報資料及繳納款項,偵測任何遺漏事項,並據此進行應繳稅款的核定與徵收」職權,法律賦予其要求銀行提供納稅人的相關資料之權限。 法院強調,凡涉及人權的政府措施,均必須保障個人免受任意干預,並接受在獨立機構進行前進行的某種對抗性程序審查,以適時審核決策依據及相關證據,始符合法治之要求。在本案中,法院認為,若義大利稅務機關發布行政規則,能補充並進一步界定了銀行資料之調閱事由及權限,且對執行單位具有拘束力,相關規定應能符合法治之要求。 但法院發現,在事前的內部授權流程中,執行單位可以不附理由地提出調閱申請,不須就前述行政規則例示之調閱事由,如「稅務申報存在異常」等情形提供證據。 法院也發現,申訴人也無法在事後針對調閱決定透過法院獲得有效救濟。一方面,若申訴人依附於稅務評定書(tax assessment notice)向稅務法庭就調閱行為進行爭執,由於根據義大利判決先例,調閱缺乏授權或授權理由不足,不足以構成撤銷稅務評定書的正當理由,調閱行為之合法性本身可能因此被視為訴訟上不相關的爭議,在訴訟過程中並不受到審查。另一方面,即便直接針對向民事法院請求救濟,在調閱決定可不附理由之情形下,也難以想像法院如何進行審查。 因此,法院判決最後認為,義大利法律框架賦予了稅務機關不受約束的調閱裁量權,違反ECHR第8條對隱私權之保障。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。