英國建置著作數位著作授權平台(Copyright Hub),為數位時代增添授權管道

  英國智慧局於今 (2013) 年3月底時宣布投入15萬英鎊(約683萬元台幣)啟動一項名為「數位著作授權平台」(Copyright Hub)的建置計畫,並於今年7月正式上線,提供權利人、利用人、以及市場等關於著作權的授權相關事宜。

 

  根據該平台籌設小組所提出的營運方針 ,初步觀察該平台的定位與功能可歸納出三項特點:

一、平台定位為連結利用端與權利端之入口門戶(Portal)
  該匯集平台的定位為連結(connect)利用端與權利端的入口門戶,屬於一種著作權資訊匯集中心;只要涉及與著作權相關的內容作品,都可以加入此平台,不限於數位形式的內容作品,該平台並非要取代現有的市場機制,而係在促進現有的集體管理團體、作品登錄單位(Registry)以及跨領域之間有關著作權之交流。

二、平台的主要功能在於媒合權利端與利用端
  平台主要提供的服務內容為協助利用端找尋合適的內容以及權利資訊,降低其在海量的數位世界裡搜尋的成本。即平台作為第三方的媒合者,協助兩端進行相關授權事務,利用人可透過該平台向權利人提出授權申請,或是由權利人向不特定或潛在的利用者提出授權的邀約。另外,透過平台的資訊彙整機制,也可降低授權的爭議,例如專屬授權的重疊,以及授權範圍的疑義等等。

三、平台透過數位權利管理資訊系統搭配管理碼達成目的
  目前數位作品(Copyright Management System)已蔚為趨勢,因此該平台希望藉由多媒體識別網絡(Multimedia Identifier Network),在每一個數位作品加入一個管理碼,用以管理作品的權利資訊(包括授權內容等訊息)。此外,平台未來也會建立識別不同國際標準碼的機制,讓使用不同國際標準碼之作品在此平台上都能夠互相轉換或辨識。

 

  目前數位著作授權平台(2013年七月初)已經成立,不難發現英國政府的企圖心,欲透過此一平台媒介進一步將英國的音樂、圖像、影音透網絡推廣到世界。從文化層面來說,係希冀透過該媒介再傳遞或散布英倫三島的文化,進而透過間接或直接產生經濟上的價值反饋。我國向來蓬勃發展的音樂產業、出版產業、以及近來興起的影音產業,在華語世界或是亞洲等,競爭力不亞於其他國家,甚至近來流行文化已經深入擴散到鄰近國家當中,我們如何透過科技媒介整合文創產業,進而增加經濟上的產值,英國政府的此種思維脈絡足堪借鏡。

相關連結
※ 英國建置著作數位著作授權平台(Copyright Hub),為數位時代增添授權管道, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6342&no=55&tp=1 (最後瀏覽日:2026/02/27)
引註此篇文章
你可能還會想看
無線網路溢波盜用之法律議題初探

日本特許廳利用人工智慧審查專利與商標申請

  日本特許廳(Japan Patent Office,JPO)從去(2016)年12月開始,與NTT Data公司合作,使用人工智慧(Artificial Intelligence,簡稱AI)來系統化的回答有關專利問題,且依成果顯示,與原先運用人力回復的成果相當;JPO因此決定於今(2017)年夏天開始,將AI技術分階段應用於專利及商標的審查案,並期望能於下一會計年度(2018年4月至2019年3月),在審查業務中全面運用AI技術。   JPO指出,透過AI技術能有助於將專利及商標審查程序中繁冗的檢索程序簡化,以專利審查為例,可搜尋大量文件與檔案,進行專利先前技術檢索,以確保相關技術尚未獲得專利保護,同時也可以協助專利分類;此外,商標審查亦可利用AI之圖像辨識技術比對圖片及標誌,找出潛在的類似商標。   AI技術被證實能提升審查效率,並減輕審查人員檢索與比對部份的工作負擔,有助於抑制人工審查的長時間工作型態,根據2017年日本特許廳現況報告(特許庁ステータスレポート2017),於導入AI技術後,原本從申請到審查完成平均約2年左右之審查時間,期望可在2023年將審查期間降到14個月,讓日本成為智慧財產系統審查最快且品質最好的國家之一。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

新加坡個資保護法責任指南

  新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。   從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP