品牌永續發展之關鍵-從商標維權使用角度觀之

刊登期別
第25卷,第6期,2013年06月
 

※ 品牌永續發展之關鍵-從商標維權使用角度觀之, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6340&no=55&tp=1 (最後瀏覽日:2024/07/16)
引註此篇文章
你可能還會想看
Trader Joe’s v.s. Pirate Joe’s 超市品牌商標之爭

  居住於溫哥華的加拿大人Michael Hallatt(以下簡稱Hallatt),在加拿大設立了一家超市名為”Pirate Joe’s”,其貨品來源主要來自美國知名大型超商Trader Joe’s的產品,每年往來美國、加拿大平均花費近35萬美元購買Trader Joe’s的產品,包含有機沾醬、巧克力餅乾、裹著牛奶巧克力的洋芋片等熱門產品。   自稱為Trader Joe’s的最忠實客戶Hallatt,卻於今年(2013)被Trader Joe’s於美國境內提出訴訟,Trader Joe’s主張Hallatt經營Pirate Joe’s的方式侵害其商標權(trademark infringement)、不實廣告(false advertising)、使消費者誤認Pirate Joe’s有經Trader Joe’s授權或認同(false endorsement)等。   Trader Joe’s表示其花費大量時間及心力洞悉消費市場需求及產品推出時機點,逐項開發及製造產品,而Hallatt卻不費吹灰之力,直接買進相關產品後於加拿大以較高價格再次販售。Pirate Joe’s的經營模式可能誤導甚至欺瞞消費者使消費者誤認Pirate Joe’s為經過Trader Joe’s授權或同意之賣商。此外,Trader Joe’s認為Pirate Joe’s店面視覺上與Trader Joe’s超市外觀十分相近,有抄襲Trader Joe’s著名的商業表徵(South Pacific trade dress)。更甚者,Trader Joe’s認為Pirate Joe’s販售的有可能是已經受損的、過期的或其他不符合Trader Joe’s品管標準的產品,Pirate Joe’s這樣的銷售行為將導致Trader Joe’s無法解決前述所指出的產品潛在問題,嚴重毀損Trader Joe’s商譽及品牌形象。   另一方面,Hallatt則認為他僅是為了加拿大消費者方便,為消費者省去交通成本、時間等,讓消費者在加拿大即可購買到美國Trader Joe’s的產品,其認為其有權利再次銷售其合法購買取得的商品,即便他販售的價格稍微高些。   此訴訟目前仍在進行中,一方為美國知名大型超商Trader Joe’s,另一方為販售Trader Joe’s產品的加拿大超商Pirate Joe’s,在「品牌形象保護」及「產品合法再銷售範疇」兩者權衡下,究竟這場商標相關爭訟結果為何值得拭目以待。

英國先進材料研發之促進輔助法制政策介紹

綠不綠有關係?!-論綠色資料中心及其相關能源效率法制政策

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP