歐盟對CISAC權利金收費行為展開限制競爭調查

  歐盟最近對CISAC公司的權利金收費行為,是否涉有不公平競爭之情事展開調查,此舉引發藝文界高度關注。CISAC乃是由作家及作曲家所組成的一個國際性聯盟組織( International Confederation of Societies of Authors and Composers),會員來自於109個國家的207個社團( member societies),代表超過兩百萬位以上的藝術家、作曲家及導演之權益。


  在一封
27寄發給CISAC的信件中,執委會表示CISCA拒絕跨國授權的行為,已構成違反歐盟競爭法第81條。此外,執委會也表示,CISCA要求只有個別國員內的權利金收費社團可為會員收取權利金的約款,將迫使創作者無其他選擇,必須將其權利移轉給其國內之權利金收費社團,此種限制性約款亦為歐盟競爭法所不許。蓋CISCA本即擁有事實上之獨佔地位,此等約款將使其他潛在競爭者難以進入市場,故有限制競爭之疑慮。


  
221,在與內部市場委員(Internal markets CommissionerCharlie McCreevy的會面中,音樂作曲家代表對歐盟競爭總署近來的大動作,將可能危及文化多樣性(cultural diversity),扼殺廣大文化創作者的創意,毀掉歐盟在此一領域之利基,表達出高度疑慮。McCreevy 向作曲家保證,執委會的目的不在限制或詆毀創作者既有之權利,而是希冀能建立一個合法的數位環境,活絡歐盟地區的線上音樂服務。


  目前,歐盟地區的跨國廣播公司如要播放音樂,必須在個別播放國家分別取得其權利金收費團體的授權。如果歐盟可藉由此次限制競爭的調查,迫使
CISAC提供泛歐洲授權契約的服務,將使線上廣播公司受惠

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟對CISAC權利金收費行為展開限制競爭調查, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=544&no=67&tp=1 (最後瀏覽日:2026/04/03)
引註此篇文章
你可能還會想看
歐盟延攬人才 推動新措施

  有鑒於現今歐洲投資於研發的經費遠落後於美國,因此使得近幾年仍無法有效縮減歐盟與美國間的創新發展落差。日前執委會提出一項針對研發環境的整合性計畫,希望藉以提升歐洲創新與研究的相關條件 。   這項計劃其來有自,早在2000年里斯本高峰會議宣示致力達成「歐洲研究領域( European Research Area) 」;2002年巴賽隆納高峰會更作出重要決議:要求所有會員國需在2010年前完成科研投資達GDP3%的目標,並且期望其中三分之二的投資將來自工商界。   該項計劃特別將焦點集中在改善私部門研發與創新之投資條件上,透過「研究人員流通行動方案」 提倡科研人才前往私人研究部門、鼓勵大學和企業之間的合作,並透過租稅補貼來鼓勵企業的投入、重新配置研究基金、改善提升大學與企業間夥伴關係等獎勵措施,以提升經濟成長與創造就業機會。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

英國發布《資料主體近用權指引》說明資料近用權法遵重點及實例解析

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年10月21日發布《資料主體近用權指引》(Guidance of Right of access),針對資料主體行使資料近用權之請求(Data Subject Access Request, DSAR),受請求之機構應如何進行識別判斷、簡化處理方式,以及特殊例外情況等法遵重點提供指導方針,並進行實例說明解析,以幫助受請求之機構在面臨資料主體之近用權請求時能快速且有效的處理。   英國「個人資料保護法」(The Data Protection Act 2018)依據歐盟「一般資料保護規則」(GDPR)於2018年重新修訂,其中資料近用權更是對於資料主體相當重要的基本權利,進而影響受請求之機構必須了解如何有效率的處理資料近用權之請求,並確實履行其在法規上所要求的保護義務,主要分為三點: 在資料主體確認其資料近用權所欲請求的範圍之前,受請求之機構依法應回覆時限應予以暫停,以利受請求之機構能有更充裕完整的時間釐清及回應資料主體之近用權請求。 為了避免受請求之機構耗費大量時間判斷何謂「明顯過度之請求」(manifestly excessive request),該指引提供相關定義說明及判別標準。 針對「明顯過度之請求」收取處理費用所包含的項目,例如受請求之機構處理請求所增加人力行政成本,在受請求之機構收取處理費用時可將其納入斟酌。

OFCOM將重新檢討商業廣播電視節目贊助規定

  英國廣播電視主管機關OFCOM於今年十月下旬公布,其將修酌廣播電視規則(Broadcasting Code),放寬商業廣播電視節目/頻道贊助規定。   現行的廣播電視規則禁止特定類型的節目接受贊助,例如新聞和時事節目不得接受贊助,也禁止特定種類之商品或服務廠商贊助特定節目,例如禁止酒商贊助兒童節目。   OFCOM表示將修酌現行規定,放寬節目/頻道贊助之規定,惟在兼顧節目編輯權以及兒童閱聽人之收視權益的考量下,將訂定相關的節目/頻道贊助限制,包括     1.必須使閱聽人知道節目有接受贊助,贊助廠商之資訊必須與節目和廣告內容所有區隔。     2.頻道贊助廠商之資訊不得出現於禁止接受贊助之節目內容中或播放時間之前、後。     3.贊助廠商資訊之呈現不得過於明顯。     4.節目頻道不得以贊助廠商之名稱命名。

TOP