隨著遊戲產業不斷提升遊戲畫面的精緻程度,遊戲角色也更加貼近於真實。近期,一款由Take-Two(遊戲開發商)推出名為「NBA 2K」的遊戲,遭到Solid Oak(集合刺青家授權,保護刺青著作權)控告遊戲角色(NBA球星)身上的刺青出現在遊戲中,是侵害刺青圖案著作權的行為。
本案之爭點為遊戲中出現的刺青是否納入著作權保護範圍內及遊戲開發商對於刺青的再次使用及展示有無違著作權法。Solid Oak顯然符合關於著作權法對於原創性(original works)的要求,惟由於刺青師與運動員並無任何著作權協議,因此推斷刺青師仍保有著作權。Take-Two主張在遊戲的使用上屬於公平且微量的。他們在遊戲中所呈現之畫面,其唯一目的是保持運動員真實性形象,若不去暫停或者放大畫面,幾乎看不清楚那些圖案(刺青)。由於本案仍在訴訟中,未來是否能肯認此為合理使用,並未明確。現階段如要避免此類爭訟,或許遊戲開發商得考慮直接向刺青師(藝術家)取得授權,或由運動員與刺青師簽約並取得授權,進而使遊戲開發商出版遊戲時,得透過與運動員或聯盟等簽訂使用球員形象之合約,間接使用該等圖案。
隨著科技的發展,從虛擬實境內容涉及實體藝術品之著作權,到真實人物形象於遊戲中呈現的著作權歸屬,智財權議題越趨多元。未來在快速變遷的時代,在智財權保護及科技發展之衡平上,更應保留彈性不設限範圍。
為了替法國藝術、電影和音樂等文化產業籌措資金,法國政府委託電視頻道集團Canal Plus前任執行長Pierre Lescure進行研究。報告最終建議,法國應針對Apple Inc.的iPhone、iPad及Google Android產品等智慧型手機、平板電腦課徵銷售稅。 報告指出,目前電視頻道、廣播、網路商等,皆已負擔一定費用,以協助文化產業發展,故智慧型手機、平板電腦此類重要媒介亦應採取類似措施。不過為了避免對市場造成過大衝擊,此銷售稅須維持在「極低水準」,預計稅率將落在1%左右,並可望為法國政府每年帶來約8,600萬歐元的稅收。 此舉被認為與法國長期採取的「文化例外(Cultural Exception)」政策立場有關。「文化多樣性」被認為是人類文明發展應遵循的共同價值,為了達成此目標,法國政府進一步認為在經濟層面上,政府基於保護自身文化產業,得在貿易談判中,將文化產業排除於自由貿易架構之外給予優惠,即所謂的「文化例外」。就目前而言,智慧型手機、平板電腦等硬體,在整體文化內容市場中,被認為佔有過大利潤,已壓縮文化產業發展空間,故必須採取適當措施,以衡平市場發展。 此項建議,預計將於今(2013)年7月間,由法國總統François Hollande決定是否正式進入立法程序。
韓國最高法院宣告撤銷製藥公司含有「LEGO」名稱的註冊商標韓國最高法院2023年12月8日宣告著名積木玩具樂高公司(LEGO Juris A/S)提起撤銷註冊商標「LEGOCHEMPHARMA」的上訴審判結果,確認韓國製藥商樂高生技有限公司(下稱LegoChem Bio)的註冊商標無效,因該註冊商標包含LEGO字樣,存有減損樂高公司「LEGO」商標識別性之虞,構成侵害商標權。 科斯達克上市公司LegoChem Bio於2015年11月申請「LEGOCHEMPHARMA」商標註冊,用以提供藥物開發服務,隨後樂高公司提出異議,聲稱該商標與其「LEGO」商標近似,該商標因此被駁回。據此,LegoChem Bio向智慧財產權審判及上訴委員會(IPTAB)提出上訴,並於2018年9月取得商標註冊。其後,樂高公司於2020年3月向智財法院提起訴訟,主張商標權受到侵害,請求撤銷「LEGOCHEMPHARMA」商標註冊,法院判決該註冊無效,LegoChem Bio因此向最高法院提起上訴。 首先,最高法院認為「LEGOCHEMPHARMA」(下稱系爭商標)的關鍵識別部分為「LEGO」,而「CHEM」和「PHARMA」僅是化學和製藥領域的名稱,沒有特殊的識別性。其次,依韓國《商標法》規定,第34條第1項第11款規定「可能與消費者高度認識的他人商品或服務造成混淆誤認,或損害其識別性或聲譽之虞的商標」不得註冊商標。最高法院認為系爭商標與樂高公司的高知名度和高識別性商標「LEGO」非常近似,被告LegoChem Bio申請註冊系爭商標之目的可能是為引起與先使用商標「LEGO」之聯想。因此判決系爭商標註冊無效,且應視為有損害著名商標識別性之虞。 本案攻防戰可看出商標取得、保護對於品牌之生存發展具有重要影響,有關品牌發展各階段應留意的風險與建議作法,企業可參考資策會科法所創意智財中心出版的商標專書「TOP品牌商標管理術!新創業到老字號都適用」,可藉由該書收錄的經典國內外品牌商標管理方式與時事案例,跟上品牌商標管理趨勢,其中的品牌商標管理工具,亦得直接應用於實務工作,輔助建置品牌商標管理機制,保護品牌獨特性、穩固品牌競爭力,為品牌經營帶來加乘效益。 本文同步刊登於TIPS網(https://www.tips.org.tw)
日本政府發布2024年版「實現數位社會重點計畫」.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 日本於2024年6月21日內閣決議更新「實現數位社會重點計畫」(デジタル社会の実現に向けた重点計画),作為日本最新數位與資料治理革新之上位政策,以達成實現Society5.0以及整合並協調各機關數位政策之目標,力求克服日本近年面臨人口減少、勞動力不足、產業競爭力下降、災害風險等之課題。 「實現數位社會重點計畫」自2021年發布第一版起,即以六項願景整合相關政策,分別為: 1. 數位化實現成長:數位轉型推動整體社會的生產力與競爭力; 2. 重要領域數位化:資料串連推動醫療、教育、防災、兒童等領域的安全發展; 3. 數位化實現區域振興:數位工具活化各區域特色; 4. 沒有人落後的數位社會:使所有人都可以體驗數位化服務; 5. 開發與保護數位人力:建立持續培養數位人力的社會; 6. 推動國際資料流通:實現資料可信任的跨國自由流通。 2024年「實現數位社會重點計畫」以六項願景分述各機關計劃推動的320個相關政策,如有醫院急救時共享醫療資訊、電子母子健康手冊、兒童資料串接、減少長者數位障礙、女性數位人才培育,以及推動資料可信任自由流通(Data Free Flow with Trust)等。 此外,本次更新之計畫新增「業務、系統、制度三位一體」作為推動架構。其中業務指結合資料與數位應用的行政服務;系統則是指適合於業務運作的軟、硬體;制度則指透過包含資料標準、指引或法令等方式形成之規範。日本藉此推動架構評估資料與數位之政策從起草、規劃到執行等階段中業務、系統與制度之間的協調性,為政策的制定者、使用者提供便利與高品質的數位體驗。 由2024年實現數位社會重點計畫的更新可知,日本強調在數位轉型階段中社會整體革新的企圖,加強政策在業務、系統、制度三個層面的一致性,以在邁向數位社會的同時克服社會轉型的挑戰。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。