英國將修法廢除非營利團體合理使用錄音著作相關規定

  英國的1988年智慧財產權法(The Copyright, Designs and Patents Act of 1988)長久以來,對於慈善及非營利團體在公開場合或活動中播放音樂,一直給予合理使用的空間。然當相關團體受惠於此一規定時,創作人跟表演人卻不樂見此情形。因此,英國主管機關針對此一合理使用規範,在2008年對相關團體進行了意見徵詢。

 

  在2008年10底截止的意見徵詢中,對於改變錄音著作與表演人權利的公開演播合理使用空間,提供了下列三個選項:
一、 完全廢除此一合理使用空間
二、 縮小適用的團體範疇
三、 廢除合理使用空間,但權利人只能以對雙方都公平的費率收取權利金

 

  近日,英國政府宣布根據前述的意見徵詢結果,將廢除慈善與非營利團體的合理使用規定,從2010年4月開始這些團體將必須負擔一個固定的年費,才能在活動或公開場合中使用音樂,但截至目前為止,使用的費率為何尚未確定,但主管機關表示,希望一年不超過100英鎊。

 

  主管機關接下來將對費率部分開始徵詢意見,對於1988年智慧財產權法也預期會進行修正,並於2010年4月開始落實相關規範。這樣的改變對於慈善團體而言固然感到失望,相關團體也以未來在活動場合中,不播放音樂或不付權利金來做為要脅,但整體發展仍有待後續觀察。

相關連結
相關附件
※ 英國將修法廢除非營利團體合理使用錄音著作相關規定, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3226&no=64&tp=1 (最後瀏覽日:2024/07/16)
引註此篇文章
你可能還會想看
何謂「TLO」?

  「TLO」係「技術移轉機關(Technology Licensing Organization)」之簡稱,專指大學研究成果申請專利後,將該等技術移轉給企業等之機關,如同產學間的仲介角色。   日本於平成10年(西元1998年)5月6日通過「促進大學等實施技術研發成果移轉給民間企業法(簡稱大學等技術移轉促進法或TLO法)」,目的在於將大學之研究成果技轉給民間企業,促進研究成果之實用化。   在承認TLO存在之同時,日本做了以下法令之配套:依據TLO法第8條,實施特定大學技術移轉之事業期間,第1年到第10年之授權金及專利申請審查手續費用減免1/2、產業競爭力強化法第19規定,若國家委託之研發成果,歸屬於受託者時,該研發成果之移轉授權不須經國家之承認、同時大學法人法第22條允許國立大學得為出資。同時TLO法亦承認若中小企業透過TLO取得研究成果之授權時,得降低中小企業投資育成株式会社支出資要件。

從美日共同侵權責任認定之實務發展談創新服務方法發明之專利布局策略

日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。   為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。   而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰

  人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。   歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。   在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。   歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。

TOP