WIPO馬拉喀什條約

  《馬拉喀什條約》全名為《關於為盲人、視力障礙者或其他印刷品閱讀障礙者獲得已出版作品提供便利的馬拉喀什條約》(Marrakesh Treaty to Facilitate Access to Published Works for Persons Who Are Blind, Visually Impaired or Otherwise Print Disabled),2013年由世界智慧財產權組織(WIPO)通過,並於2016年9月30日生效。《馬拉喀什條約》目標是在保護智慧財產權的同時,亦能擴大視覺障礙者資訊及資源獲取的管道,允許盲人及視障者得複製已出版作品、簡化無障礙文本的印刷流通與授權,增加視障者閱讀機會。條約並要求締約方必須在國內法中明文對著作權人權利的例外與限制規定,允許被授權實體(例如為視力及閱讀障礙者服務的非營利性組織),製作圖書的無障礙格式版本,包括點字文本、大字本、數位化音訊等,並允許跨國境交換,均無須請求著作權人授權。

  美國是目前擁有最多無障礙格式英文文本的國家。2019年1月28日,美國總統批准《馬拉喀什條約》後,美國成為了該條約的第50個締約國。條約在美國國內實施後,居住在條約締約國的視力障礙者將能立即獲得約550,000份無障礙文本。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ WIPO馬拉喀什條約, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8212&no=0&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
歐洲網路暨資訊安全局發布「重要資訊基礎設施下智慧聯網之安全基準建議」

  歐洲網路暨資訊安全局(European Union Agency for Network and Information Security, ENISA)於2017年11月20號發布了「重要資訊基礎設施下智慧聯網之安全基準建議」。該建議之主要目的乃為歐洲奠定物聯網安全基礎,並作為後續發展相關方案與措施之基準點。   由於廣泛應用於各個領域,智慧聯網設備所可能造成之威脅非常的廣泛且複雜。因此,了解該採取與落實何種措施以防範IOT系統所面臨之網路風險非常重要。ENISA運用其於各領域之研究成果,以橫向之方式確立不同垂直智慧聯網運用領域之特點與共通背景,並提出以下可以廣泛運用之智慧聯網安全措施與實作:   (一) 資訊系統安全治理與風險管理   包含了與資訊系統風險分析、相關政策、認證、指標與稽核以及人力資源相關之安全措施。   (二) 生態系管理    包含生態系繪製以及各生態系的關聯。   (三) IT安全建築    包含系統配置、資產管理、系統隔離、流量過濾與密碼學等資安措施。   (四) IT安全管理   帳戶管理與資訊系統管理之相關安全措施。   (五) 身分與存取管理   有關身分確認、授權以及存取權限之安全措施。   (六) IT安全維護   有關IT安全維護程序以及遠端存取之安全措施。   (七) 偵測   包含探測、紀錄日誌以及其間之關聯與分析之安全措施。   (八) 電腦安全事件管理   資訊系統安全事件分析與回應、報告之資安措施。

國際因應智慧聯網環境重要法制研析-歐盟新近個人資料修法與我國建議

複製人類在歐美之法制規範

美國OMB發布人工智慧應用監管指南備忘錄草案

  美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。   該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。   此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。

TOP