歐洲人權法院(ECtHR)在去年(2012)12月作出一項因封鎖網路而侵害言論自由的判決。該判決認為土耳其政府封鎖整個Google網站的行為,已違反歐洲人權公約第10條關於言論自由之保障。
土耳其法院在2009年審理侮辱有土耳其國父之稱的凱末爾將軍案時,判決封鎖設在Google平台的某網站,但土耳其通訊主管機關(Telecommunications Directorate)向法院建議,因技術上問題,建議封鎖整個Google網域才能達到效果,此舉連帶影響本案上訴人架設於Google平台上的網站也一併遭致封鎖,上訴人在窮盡國內訴訟程序後,進而向歐洲人權法院提告。
歐洲人權法院認為,網路目前已經成為表達言論的一個重要工具與場域,根據歐洲人權公約第10條規定,立法限制言論自由必須明確,以便當事人能夠遵循。但土耳其法令(Law no. 5651)並無可封鎖整個網域之相關規定;此外,亦有證據顯示土耳其政府並未盡告知義務,且該網路平台Google亦無拒絕遵循當地國法令之情形;至於通訊主管機關建議法院封鎖整個Google網域行為,亦違反土耳其法令(Law no. 5651)之授權範圍。因此歐洲人權法院認為土耳其政府已經違反歐洲人權公約第10條規定。
根據歐洲安全與合作組織(Organization for Security and Co-operation in Europe)的調查指出,在2012年土耳其政府至少封鎖了3700個網站,包括YouTube、DailyMotion、Google等知名網站。
而總部設在倫敦的維護言論自由知名組織Article19(取名自世界人權宣言第19條言論自由保障而來)主任Agnes Callamard博士也指出,本案是網路言論自由的重大勝利,尤其是當前各國政府積極尋求各種網路管制手段時,更應注意立法限制言論自由必須具有明確的法源基礎且應有救濟管道,以落實歐洲人權公約保障言論自由之意義。
美國The Center for Intellectual Property Understanding(CIPU,以提高人們的智慧財產管理素養和提倡阻止侵權行為為宗旨的教育推廣非營利組織)於2025年2月19日發布之「Manager and Entrepreneur IP Experience: The Limitations of On the Job Learning」報告指出,於美國從事智慧財產權的美國商業人士於智慧財產權相關問題時有兩大現象,包括:專利人員具備基本營業秘密素養之重要性與日常商務活動之商標、著作權問題日趨普遍。 針對前者,根據Ocean Tomo發布的市場研究,從1975年到2020年,無形資產佔整公司整體價值從17%提升至90%,可見智慧財產權在國際市場的重要性,這也表示有更多不同領域的專業人士在參與處理專利、著作權及商標之問題,包括非法律專業人士,例如工程師、行銷策略師和其他來自教育領域之人員等,但是這些人員之所學很少涉略智慧財產,將導致無法確實有效的因應智慧財產議題,進而造成付出代價高昂的溝通障礙以及難以認定專利是否具備商業應用等負面影響。而一些從事專利領域的人員指出,當了解營業秘密的重要性,將可使從事處理智慧財產相關工作的人員決定是否要保密抑或揭露公開揭露這些資訊。 至於後者,在本篇報告相關的研究指出,高商標註冊率和高獲利及股票回報價值的整體無形資產間存在正向關係。許多受訪者還提到透徹了解商標法對於發展品牌、降低責任風險的方式至關重要。對於生成式AI的領域的企業家,因為侵權和合理使用問題持續存在,所以著作權意識的重要性也隨之提升。而為公司管理著作權資產的專業人士時常有管理多樣化資產的機會,例如廣播、串流媒體的權利金及整個產業鏈的製作成本等。 因此,對於時常接觸智慧財產之產業之相關人員而言,應提供更多智慧財產權相關課程,開發可存取、使用者友善的資源,以彌平從事任何形式的智慧財產權的專業人員法律素養之差距,進而使這些人員足以應對日常業務上可能面臨的智慧財產問題。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
新加坡金融管理局(MAS)發布「人工智慧風險管理工具包」新加坡金融管理局(MAS)於 2023 年中旬啟動「MindForge 計畫」,旨在協助金融機構強化其人工智慧(AI)風險管理能力。該計畫於2026年3月20日完成第二階段,並發布由MAS聯合24家領先銀行、保險公司與資本市場公司等產業夥伴共同開發的「人工智慧風險管理工具包」。該工具包內含「AI風險管理營運手冊」(下稱「營運手冊」)與「AI風險管理實施案例」(下稱「實施案例」),提供實務資源以管理涵蓋「傳統AI」、「生成式AI」及「新興代理型AI」技術的相關風險,確保產業能安全且負責任的導入AI。「營運手冊」依據MAS的監理期望,將AI 風險管理框架分為四大核心:一、範圍與監管:建立AI治理框架並釐清AI監督的角色與責任。二、AI風險管理:透過組織的系統、政策與程序,識別AI應用情境,進行風險重大性評估,並建立AI盤點清單。三、AI生命週期管理:實施AI應用完整生命週期的控制措施。四、促成因素:發展組織能力、基礎設施與資源,以確保能持續支持負責任的AI應用。「實施案例」則收錄如星展銀行(DBS)及瑞士寶盛(Julius Baer)等機構的AI風險管理實務。未來,MAS 將於「BuildFin.ai」倡議下成立專責小組,持續開發建構管理新興技術風險的框架。 相較於新加坡著重建立全方位治理架構,資訊工業策進會科技法律研究所創意智財中心(下稱「資策會科法所創智中心」)於同年 2 月發布之「金融業人工智慧(AI)風險管理實務指引」,則更強調將風險控管「整合」至既有流程中,透過與業務流程的結合實踐韌性管理。該指引奠基於「人工智慧基本法」,並進一步連結「台灣智慧財產管理規範(TIPS)」驗證角度,協助機構精準掌握應用情境並具體化風險。透過將管控機制立基於資安、資訊及智財三大支柱,降低法遵成本與業務衝擊,並藉由分階段與分級管理,引導金融機構從核心防護逐步深化管控機制。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國家寬頻計畫簡介 英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。