愛看Meme的網友們注意了!歐盟新著作權指令「迷因禁令」(Meme Ban)

  歐盟數位單一市場著作權指令(Directive on Copyright in the Digital Single Market 2016/0280,簡稱COD)中最具爭議性的草案為第13條,被稱為「上傳過濾器」(upload filter),其課予如YouTube、Facebook 及Twitter等內容產業業者,具有防止著作權侵權內容於其平臺被上傳與分享之責任,故平臺須以有效的內容辨識科技(effective content recognition technologies)對所有使用者的上傳內容進行監督與審查,因此又被稱為「迷因禁令」(Meme Ban)。據此,所有二次創作內容均會被禁止上傳於平臺。

  所謂「謎因(Meme)」在牛津字典被定義為「具幽默本質並可迅速被複製、散布於網路使用者間,且通常會輕微改作的圖片、影片或文本等(An image, video, piece of text, etc., typically humorous in nature, that is copied and spread rapidly by Internet users, often with slight variations.)」。不少公開平臺甚至以提供觀看、上傳Meme為主要內容,如國際知名Meme網站- 9GAG。若該法通過,對這些大量分享二創內容的網路平臺,將造成全面性的衝擊;此外,也有不少平臺巨頭如YouTube的CEO針對這項草案發出將侵害人權與言論和創作的憂心建言。

  該草案自2016年提出歷經歐洲議會多次表決,預定於明年(2019)元月進行最終表決,這個極具爭議性的條款未來將如何發展,是否即將翻轉現有網路二創環境值得關注,社群網路也已經發展出#SaveYourInternet的主題標籤,呼籲大眾的重視。

相關連結
你可能會想參加
※ 愛看Meme的網友們注意了!歐盟新著作權指令「迷因禁令」(Meme Ban), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8147&no=67&tp=1 (最後瀏覽日:2026/01/09)
引註此篇文章
你可能還會想看
歐盟《歐洲資料戰略》

  歐盟執委會針對未來10年歐洲AI開發與開放資料運用方向等核心議題,於2020年2月19日公布一系列數位化政策提案,其中之一即為提出歐洲資料戰略(European Data Strategy)。本戰略提出資料開放共享政策與法制調適框架,宣示其目標為建構歐洲的資料單一市場(single market for data),視資料為數位轉型的核心,開放至今尚未被使用的資料。歐盟期待商界、研究者與公共部門等社群的公民、企業和組織,得透過跨域資料的蒐集與分析,改善決策的作成基礎或提升公共服務品質,為醫療或經濟等領域帶來額外利益,同時促進歐盟推動人工智慧發展及應用。   本戰略揭示了資料單一市場的建構框架,包含資料必須能在歐盟內與跨域流通並使所有人受益、全面遵守如個資保護、消費者保護與競爭法等歐盟相關規範、以及資料取用(access)和使用的規定,應平等實用且明確,並以之建立資料治理機制;同時,為在技術面強化歐洲數位空間之能力,以完善資料共享所需之資料基礎設施,應創建歐洲資料庫(European data pools),預備將來進行巨量資料分析與機器學習。在上述框架下,本戰略同時擬定了數個具體的措施與制度調修方向如下:(1)建構資料跨部門治理與取用之法規調適框架:包括於2020年第4季提出歐洲共同資料空間管理之立法框架,於2021年第1季提出高價值資料集(high-value data-sets),評估於2021年提出資料法(Data Act)以建構企業對政府或企業間的資料共享環境、調適並建立有利於資料取用之智慧財產權與營業秘密保護框架;(2)強化歐洲管理、處理資料之能力與資料互通性:建構資料共享體系結構並建立共享之標準及治理機制、於2022年第4季啟動歐洲雲端服務市場並整合所有雲端服務產品、於2022年第2季編纂歐盟雲端監管規則手冊;(3)強化個人有關資料使用之權利:從協助個人行使其所產出資料相關權利之角度,可能於資料法中優化歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第20條之資料可攜權,如訂定智慧家電或穿戴裝置之資料可讀性格式;(4)建構戰略領域與公共利益領域之歐盟資料空間:針對戰略性經濟領域與攸關公共利益的資料使用需求,開發符合個資保護與資安法令標準之資料空間,主要用於保存製造業、智慧交通、健康、財務、能源、農業、公共管理等領域之資料。

歐盟2020年人工智慧白皮書

  歐盟執委會於2020年2月19日發布「人工智慧白皮書」(White Paper on Artificial Intelligence: a European approach to excellence and trust),以打造卓越且可信賴的人工智慧為目標。歐盟認為在推動數位轉型過程中的一切努力,均不應脫離歐盟以人為本的最高價值,包含:開放(open)、公平(fair)、多元(diverse)、民主(democratic)與信任(confident),因此在人工智慧的發展上,除了追求技術的持續精進與卓越外,打造可信賴的人工智慧亦是歐盟所重視的價值。   歐盟執委會於人工智慧白皮書中分別就如何追求「卓越」與「可信賴」兩大目標,提出具體的措施與建議。在促進人工智慧卓越方面,執委會建議的措施包含:建立人工智慧與機器人領域的公私協力;強化人工智慧研究中心的發展與聯繫;每個成員國內應至少有一個以人工智慧為主題的數位創新中心;歐盟執委會與歐洲投資基金(European Investment Fund)將率先在2020年第1季為人工智慧開發與使用提供1億歐元融資;運用人工智慧提高政府採購流程效率;支持政府採購人工智慧系統等。上述各項措施將與歐盟「展望歐洲」(Horizon Europe)科研計畫密切結合。   而在建立對人工智慧的信賴方面,執委會建議的措施則包含:建立有效控制人工智慧創新風險但不箝制創新的法規;具高風險的人工智慧系統應透明化、可追溯且可控制;政府對人工智慧系統的監管程度應不低於對醫美產品、汽車或玩具;應確保所使用的資料不帶有偏見;廣泛探討遠端生物辨識技術的合理運用等。歐盟執委會將持續徵集對人工智慧白皮書的公眾意見,並據以在2020年底前提出成員國協力計畫(Coordinated Plan)之建議。

外掛程式開發公司Bossland GmbH指控暴雪娛樂竊取外掛程式的原始碼

  曾開發「暴雪英霸」、「暗黑破壞神」、「魔獸世界」等多款人氣電玩遊戲的暴雪娛樂公司(Blizzard Entertainment, Inc.)素來對遊戲中的作弊外掛程式採取嚴厲的打擊手段。暴雪娛樂日前對於「暴雪英霸」遊戲中的外掛全自動機器人程式(cheating bot)採取行動,對外掛程式開發公司德商Bossland GmbH的開發者James Enright及數名匿名工程師提出著作權侵權訴訟,並指控其外掛程式讓玩家在遊戲中作弊,影響遊戲的公平性及其他玩家的娛樂,而且損及暴雪娛樂公司的獲益。James Enright最後與暴雪娛樂達成協議,交出外掛程式的原始碼。   隨後,Bossland GmbH公司控訴暴雪娛樂公司偷走他們的原始碼。Bossland GmbH的執行長Zwetan Leschew表示,James Enright所交出外掛程式原始碼的智慧財產權屬於Bossland GmbH公司,James Enright是Bossland GmbH公司的自由程式開發者,暴雪娛樂公司已經於德國參與了數個對自動機器人程式開發者的訴訟,對於James Enright與Bossland GmbH之間的關係應有所了解。從暴雪娛樂公司和James Enright的協議可以看出,暴雪娛樂公司要求James Enright將程式原始碼交出,以換取訴訟的停止。   暴雪娛樂公司發布聲明表示,暴雪娛樂已在德國贏得了多起與Bossland GmbH公司的訴訟,儘管他們利用策略手段來拖延正在進行的訴訟程序,仍堅信法院制度會繼續證實我們的主張,而且最終會阻止作弊全自動機器人程式的散布。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP