科睿唯安 (Clarivate)公布2021年商標生態系統研究報告: 全球視野下的商標價值、保護及技術優化

  著名英國科學研究分析公司科睿唯安 (Clarivate)於2021年2月18日公布《2021年商標生態系統報告》,此報告由科睿唯安委託Vitreous World 於2020年底時分別對英國、美國、德國、義大利、法國、中國大陸以及日本等七個國家共300位專業顧問進行線上訪問,了解商標專業人士對於各國商標價值、商標保護以及技術優化之相關見解為何。此份報告之主要發現如下:

  1. 全球商標侵權狀況持續上升中:相較於2017年共有74%受訪者提及曾遇到商標侵權案件、2018年為81%、2019年則有85%。本次調查時竟有高達89%受訪者表示常經手商標侵權案件,且逾半數者表示,其企業在遭遇商標侵權後更改了品牌名稱,此類狀況於日本特別嚴重。
  2. 高階主管態度影響企業獲利機會:89%受訪者表示,企業高階主管人員對於智財問題無意識或不予關注時,組織往往無法利用商標或其他智財權利以適時抓緊商機、進入新市場或建立新合作關係。其中亦有五分之一受訪者提到,其企業董事會相關成員完全不參與企業智財議題討論。
  3. 社群媒體名稱成為許多商標侵權管道的起源:此次共有50%受訪者表示,社群媒體名稱成為首要的商標侵權源頭;但中國大陸受訪者有73%表示,網域名稱仍為商標侵權常見管道。

  今全球產業趨勢已進入知識創新時代,企業欲保持競爭力需善用智財權以維持內部能量,且為防免智財侵權威脅並把握新市場藍海,須由企業全體成員齊心關注努力,而不僅是商標部門人員的責任,管理階層更應了解企業智財狀況,適時更新智財管理與布局策略,增強市場地位。

相關連結
你可能會想參加
※ 科睿唯安 (Clarivate)公布2021年商標生態系統研究報告: 全球視野下的商標價值、保護及技術優化, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8619&no=16&tp=1 (最後瀏覽日:2025/04/05)
引註此篇文章
你可能還會想看
RFID應用與相關法制問題研析-個人資料在商業應用上的界限

美國總統歐巴馬計劃增加頻譜執照之收費

  美國總統歐巴馬於2009年2月26日提出的預算計畫書中(A New Era of RESPONSIBILITY: The 2010 Budge),提議增加無線頻譜收費(wireless spectrum fee)以幫助打銷1.7兆美元的財政赤字,該項提議預計在未來十年內,將為國庫帶來480億美元的財政收入,惟此提議卻遭質疑內容不夠清楚,且可能有礙原先政府提倡更有效率地使用頻譜之目的。   目前相關收費的細節不明。由於先前業者經由拍賣,以高昂價格取得頻譜執照主要係為提供語音及數據服務使用,因此外界推測此費用增加計劃可能針對電視與廣播頻譜收取頻率執照費。不過本案在送交眾議院審議前仍有改變之可能。   歐巴馬執政團隊於提出該項計畫後,Sprint Nextel與Verizon Wireless即刻提出問題,希望進一步了解其內容與相關規範,但白宮尚未針對該等問題做出回覆。收費標準設定勢必對現有現有廣電及電信業者,甚至頻譜交易市場造成影響,甚至影響頻譜使用的效益。   4月預算管理局(OMB)將提出的預算案中,會揭露更多有關該項收費增加的計劃說明。

德國與愛爾蘭對於個人資料處理是否須明示同意之見解不同

  德國與愛爾蘭資料保護局對於資料保護指令所規定個人資料(以下簡稱個資)的處理(process),是否須取得資料當事人明示同意,表示不同的見解。德國資料保護局認為臉書網站所提供之人臉辨識(預設加入)選擇退出(opt out consent)的設定,並不符合資料保護指令(Data Protection Directive)對於同意(consent)的規範,且有違資訊自主權(self-determination);然而,愛爾蘭資料保護局則認為選擇退出的機制並未牴觸資料保護指令。   德國資料保護局委員Johannes Caspar教授表示,預設同意蒐集、使用與揭露,再讓資料當事人可選擇取消預設的作法,其實已經違反資訊自主權(self-determination)。並主張當以當事人同意作為個人資料處理之法律依據時,必須取得資料當事人對其個資處理(processing)之明示同意(explicit consent)。對於部長理事會(Council of Ministers)認同倘資料當事人未表達歧見(unambiguous),則企業或組織即可處理其個人資料的見解,Caspar教授亦無法予以苟同。他認為部長理事會的建議,不但與目前正在修訂的歐盟資料保護規則草案不符,更是有違現行個資保護指令的規定。   有學者認為「同意」一詞雖然不是非常抽象的法律概念,但也不是絕對客觀的概念,尤其是將「同意」單獨分開來看的時候,結果可能不太一樣;對於「同意」的理解,可能受到其他因素,特別文化和社會整體,的影響,上述德國和愛爾蘭資料保護局之意見分歧即為最好案例。   對於同意(consent)的落實是否總是須由資料當事人之明示同意,為近來資料保護規則草案(The Proposed EU General Data Protection Regulation)增修時受熱烈討論的核心議題。資料保護規則草案即將成為歐盟會員國一致適用的規則,應減少分歧,然而對於企業來說,仍需要正視即將實施的規則有解釋不一致的情況,這也是目前討論資料保護規則草案時所面臨的難題之一。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP