品牌永續發展之關鍵-從商標維權使用角度觀之

刊登期別
第25卷,第6期,2013年06月
 

※ 品牌永續發展之關鍵-從商標維權使用角度觀之, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6340&no=57&tp=1 (最後瀏覽日:2026/03/11)
引註此篇文章
你可能還會想看
小賈妻Hailey的保養品新品牌「Rhode」上架一周就被控商標侵權

  小賈斯汀的名模妻海莉(Hailey Rhode Bieber)於2022年6月15日宣告成立保養品新品牌─Rhode(後稱保養品品牌「Rhode」),在美國上市一周便遭到度假風服飾品牌「Rhode」(後稱服飾品牌「Rhode」)於6月21日向紐約聯邦地方法院控訴商標侵權。   服飾品牌「Rhode」係由兩位同在時尚界的友人於2014年所成立,極力經營品牌並投入百萬美金之年度行銷預算。在訴狀中,提及搭載著海莉本身與小賈斯汀名氣之保養品品牌「Rhode」上市後,迅速地在熱搜排行超越服飾品牌「Rhode」,使後者面臨努力經營之銷售市場被瓜分之可能性;再者,儘管保養品與服飾的國際商標分類號不同(前者為第3類、後者為第25類),但實質上皆屬於廣義之時尚產業,容易造成消費者混淆,也將使服飾品牌「Rhode」未來在品牌跨界聯名的規劃受到限制。   至於保養品品牌「Rhode」早在2018年便曾以設計字樣Rhode申請美國商標並指定於服飾類別,同年11月也曾向服飾品牌「Rhode」提出商標收購但遭拒絕;爾後,2019年再以「Hailey Rhode」為名稱指定於衣服類別提出商標申請、2020年起陸續於2月及12月以「Rhode」為名稱指定於保養品及香氛類別申請商標。   在此過程中可觀察到,海莉曾試過直接收購服飾品牌「Rhode」商標、也試圖改變品牌商標名稱為「Hailey Rhode」,但最後仍以「Rhode」為品牌商標轉而發展保養品品牌。對服飾品牌「Rhode」而言,當經營多年之品牌市場受到威脅,勢必為此展開商標維權之路。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

經濟部推動奈米標章,第一個奈米標章即將在今年發出

  市面上強調奈米的產品充斥,舉凡從燈管、面膜、瓷磚等各種產品都宣稱是奈米產品,因此經濟部決定推動奈米標章認證制度。該制度的推行,可讓消費者對奈米產品有更正確的認知和信任,對於鼓勵廠商開發優良奈米產品也有正面影響。   經濟部於今年辦理第一階段的技術初審,共有六家廠商通過,預定十月中旬將要進行第二階段的跨部會複審,只要能通過複審審查,就可以取得奈米標章。   有鑒於 奈米技術工業納入新興重要策略性產業已在日前拍板定案,為避免奈米標章浮濫,而可能造成租稅浮濫,經濟部指出,未來該標章的核發審查將審慎把關,預期僅很少數廠商的奈米技術工業可成為新興產業。

歐盟延攬人才 推動新措施

  有鑒於現今歐洲投資於研發的經費遠落後於美國,因此使得近幾年仍無法有效縮減歐盟與美國間的創新發展落差。日前執委會提出一項針對研發環境的整合性計畫,希望藉以提升歐洲創新與研究的相關條件 。   這項計劃其來有自,早在2000年里斯本高峰會議宣示致力達成「歐洲研究領域( European Research Area) 」;2002年巴賽隆納高峰會更作出重要決議:要求所有會員國需在2010年前完成科研投資達GDP3%的目標,並且期望其中三分之二的投資將來自工商界。   該項計劃特別將焦點集中在改善私部門研發與創新之投資條件上,透過「研究人員流通行動方案」 提倡科研人才前往私人研究部門、鼓勵大學和企業之間的合作,並透過租稅補貼來鼓勵企業的投入、重新配置研究基金、改善提升大學與企業間夥伴關係等獎勵措施,以提升經濟成長與創造就業機會。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP