電玩角色身上之「刺青」著作權歸屬議題

  隨著遊戲產業不斷提升遊戲畫面的精緻程度,遊戲角色也更加貼近於真實。近期,一款由Take-Two(遊戲開發商)推出名為「NBA 2K」的遊戲,遭到Solid Oak(集合刺青家授權,保護刺青著作權)控告遊戲角色(NBA球星)身上的刺青出現在遊戲中,是侵害刺青圖案著作權的行為。

  本案之爭點為遊戲中出現的刺青是否納入著作權保護範圍內及遊戲開發商對於刺青的再次使用及展示有無違著作權法。Solid Oak顯然符合關於著作權法對於原創性(original works)的要求,惟由於刺青師與運動員並無任何著作權協議,因此推斷刺青師仍保有著作權。Take-Two主張在遊戲的使用上屬於公平且微量的。他們在遊戲中所呈現之畫面,其唯一目的是保持運動員真實性形象,若不去暫停或者放大畫面,幾乎看不清楚那些圖案(刺青)。由於本案仍在訴訟中,未來是否能肯認此為合理使用,並未明確。現階段如要避免此類爭訟,或許遊戲開發商得考慮直接向刺青師(藝術家)取得授權,或由運動員與刺青師簽約並取得授權,進而使遊戲開發商出版遊戲時,得透過與運動員或聯盟等簽訂使用球員形象之合約,間接使用該等圖案。

  隨著科技的發展,從虛擬實境內容涉及實體藝術品之著作權,到真實人物形象於遊戲中呈現的著作權歸屬,智財權議題越趨多元。未來在快速變遷的時代,在智財權保護及科技發展之衡平上,更應保留彈性不設限範圍。

相關連結
你可能會想參加
※ 電玩角色身上之「刺青」著作權歸屬議題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7897&no=57&tp=1 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
2014年3月24日歐盟執委會提出有機產品行動計畫

  2014年3月24日歐盟執委會提出一項具體行動計畫,發起歐洲政策有關有機農業的檢討諮詢,希冀幫助有機農民、生產者和零售商適應新的政策,投入有機農業技術研發,並規劃於2015年召開食品業與研發人員溝通會議,進而加入專家意見、利益相關者與地區公眾共同集徵意見。其中,為了幫助有機農民、生產者和零售商調整至所建議的政策規劃方向,歐洲執委會將計畫推動一項有機生產行動計劃,以推動農村發展和歐盟農業政策措施,鼓勵有機農業以加強歐盟有機生產與研究創新項目之間的聯繫,並鼓勵使用有機食品。具體行動計畫重點為: 一、增加歐盟有機生產者的競爭力: 二、為鞏固消費者信任度,計畫執行將對有機產品及其農業技術研發展開控管措施; 三、加強歐盟統一有機產品的標示規格。   另外,歐盟執委會亦通過有機產品生產和標籤規範修法草案(The Legislative Proposals for a New Regulation on Organic Production and Labelling of Organic Products),將擬制定更完善的有機產品法規,以杜絕假冒及混充。

美國參議院通過幹細胞研究加強法案,惟仍難逃被布希總統否決之命運

  美國參議院近日就是否開放聯邦經費挹注於胚胎幹細胞研究進行激辯,並於 17 日通過幹細胞研究加強法( Stem Cell Research Enhancement Act of 2005, HR 810) 及其他兩項亦涉及胚胎幹細胞研究的類似法案。其中最引人注目者為 HR 810 ,該法案允許以聯邦經費資助使用人工授精之剩餘胚或病患自願捐贈之胚胎,進行幹細胞研究。這些法案的通過顯示,美國參議院打算挑戰布希政府自 2001 年所立下禁止聯邦經費挹注於胚胎幹細胞研究的禁令。   其實早在去年五月,眾議院即以 238 票贊成、 194 票反對通過 HR 810 ,布希政府在眾議院通過 HR 810 後,隨即表示一旦本法在國會立法通過,將會動用否決權推翻此一法案。根據美國法律,法案唯有經參眾議院以三分之二以上多數通過,總統始不能否決之。日前參議院係以 63 票贊成、 37 票反對通過 HR 810 ,並未達三分之二多數通過,因此本法案未來恐難逃被布希總統否決的命運。白宮發言人業已表示,該法案強迫所有的美國納稅義務人出錢資助以故意破壞人類胚胎為基礎的研究行為,法案一旦送交總統,布希總統將會行使否決權,這將會是布希總統任內首度針對國會所通過的法案動用表決權。   儘管布希總統仍持一貫反對胚胎幹細胞研究的立場,不過,美國民眾卻有支持胚胎幹細胞研究的趨勢。一項最新民調顯示,每四名受訪者中,就有三名贊成將聯邦經費用於資助胚胎幹細胞的研究。隨著美國國會大選將於十一月中旬展開,預料胚胎幹細胞研究議題將會再度成為焦點。

論數位經濟下研究報告開放近用及著作權例外國際新發展

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP