當網路梗圖爆紅 潛藏的著作權侵權疑慮

  今(2021)年一月中旬在美國總統就職典禮中,由法新社(Agence France-Presse, AFP)攝影記者Brendan Smialowski捕捉到參議員桑德斯(Senator Bernie Sanders)戴著連指手套、雙手環胸在場邊靜候的攝影作品,意外受到網友關注並製作成各式梗圖迷因(meme) 而爆紅。然而,在這些成千上萬的梗圖創作中,除非獲得原創作者的允許或落在著作權法的合理使用範圍,否則皆潛在隱藏了著作權侵權之可能性。

  檢視本事件,將該攝影著作去背以取得「寧靜而坐的桑德斯圖像」,而將該去背圖像合成於各式情境場景,甚至架設梗圖產生器網站供其他網友上傳照片以製作更多衍生梗圖。多數在網路上分享之創意梗圖為博取網友一笑為目的,尚屬於著作權合理使用之範圍,然而當藉由該去背圖像或衍生梗圖進行廣告或促銷之用途,如將該去背圖像或衍生梗圖成為商品行銷元素、多次使用於廠商的社群媒體貼文中,將可能落入商業使用之爭議。桑德斯本人便將該去背圖像製作成運動衫進行慈善募款,儘管所得為慈善用途,但仍屬於商業使用;此外,該去背圖像未將原創進行任何轉化而直接轉印在衣服上,亦無法主張合理使用。儘管存有侵權疑慮,現階段攝影師似乎樂見其攝影作品成為各式梗圖而瘋傳,不過當開始有人藉由其攝影著作賺取金錢,情境可能就有所不同,攝影師將可能進行追究。

  回顧過去類似將網路梗圖迷因進行商業使用,而產生著作權侵權爭議之案件。早如2009年美聯社(Associated Press)記者所拍攝前美國總統歐巴馬競選活動之肖像特寫,遭到前衛街頭塗鴉藝術家費爾雷(Shepard Fairey)在未經授權使用之前提下,將該攝影著作改作名為《希望(Hope)》之海報與各式商品並進行販售,美聯社因而對費爾雷提出侵權訴訟,儘管最後雙方和解,但兩者在過程中皆投入不少訴訟資源。其他案例如2019年體育流行文化媒體Barstool Sports與社群媒體Jerry Media等,皆因藉由擷取網路梗圖吸引網路社群觸及以進行消費等商業行為,遭到原創者檢舉而被迫刪除歷年貼文。

「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

相關連結
你可能會想參加
※ 當網路梗圖爆紅 潛藏的著作權侵權疑慮, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8627&no=57&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
日本內閣通過AI研發及活用推進法草案

日本內閣於2025年2月28日通過並向國會提出《人工智慧相關技術研究開發及活用推進法案》(人工知能関連技術の研究開発及び活用の推進に関する法律案,以下簡稱日本AI法),旨在兼顧促進創新及風險管理,打造日本成為全球最適合AI研發與應用之國家。規範重點如下: 1. 明定政府、研究機構、業者與國民之義務:為確保AI開發與應用符合日本AI法第3條所定之基本原則,同法第4至第9條規定,中央及地方政府應依據基本原則推動AI相關政策,研發法人或其他進行AI相關研發之機構(以下簡稱研究機構)、提供AI產品或服務之業者(以下簡稱AI業者)及國民則有配合及協助施政之義務。 2. 強化政府「司令塔」功能:依據日本AI法第15條及第17至第28條規定,日本內閣下應設置「AI戰略本部」,由首相擔任本部長,負責制定及推動AI基本計畫,統籌推動AI技術開發與應用相關政策,並促進AI人才培育、積極參與國際交流與合作。 3. 政府調查及資訊蒐集機制:為有效掌握AI開發、提供及應用狀況,防止AI應用侵害民眾權益,日本AI法第16條規定政府應蒐集、分析及調查國內外AI技術研發及應用趨勢,並得基於上述結果,對研究機構或AI業者採取指導、建議或提供資料等必要措施。

著名商標之淡化保護 v.s. 嘲諷性使用著名商標之言論自由保障-從美國商標法及判決評析

WhatsApp因違反GDPR遭愛爾蘭資料保護委員會開罰2.25億歐元

  愛爾蘭資料保護委員會(Data Protection Commission,DPC)於今(2021)年9月宣告WhatsApp Ireland Limited(下稱WhatsApp)違反歐盟一般資料保護規則(General Data Protection Regulation,GDPR)並處以高額裁罰。   DPC自2018年12月起主動調查WhatsApp是否違反GDPR下的透明化義務,包括WhatsApp透過其軟體蒐集用戶與非用戶的個人資料時,是否有依GDPR第12條至第14條提供包括個資處理目的、法律依據等相關資訊,以及該資訊有無符合透明化原則等,其中又以WhatsApp是否提供「如何與其他關係企業(如Facebook)分享個資」之相關資訊為調查重點。   歷經長時間的調查,DPC作為本案領導監管機關(lead supervisory authority),於2020年12月依GDPR第60條提交裁決草案予其他相關監管機關(supervisory authorities concerned)審議。惟DPC與其他相關監管機關就該裁決草案無法達成共識,DPC復於今年6月依GDPR第65條啟動爭議解決程序,而歐洲資料委員會(European Data Protection Board)在同年7月對裁決草案中的疑義做出有拘束力之結論,要求DPC提高草案中擬定的罰鍰金額。   DPC最終在今年9月2日公布正式裁決,認定WhatsApp未依第12條至第14條提供資訊予「非軟體用戶」之資料主體,而「軟體用戶」的部分也僅有41%符合規範,嚴重違反GDPR第5(1)(a)條透明化原則。據此,以母公司Facebook全集團營業額作為裁罰基準,DPC對WhatsApp處2.25億歐元之罰鍰,為GDPR生效以來第二高的裁罰,並限期3個月改善。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP