什麼是「商標的反向混淆誤認」?

  2008年,連鎖咖啡店85度C告85.1度C商標侵權,台北地院以85.1度C影響了85度C的商譽和正常收益,判賠新台幣47萬元。-這是商標侵權爭訟常見「商標混淆」的具體場景,也是所謂的「正向混淆」(Direct Confusion)。試想,現在主客易位,85.1度C 是間小店,耕耘許久仍沒沒無聞;而85度C推出即一炮而紅、門庭若市。85度C是後來者,他是否可以商標混淆為由,主張85.1度C影響了其商譽和正常收益?這個「後商標比前商標強勢」的假設就涉及「反向混淆」(Reverse Confusion)。

  所謂「商標的反向混淆誤認」,按經濟部智慧財產局〈行政法院105年度判字第465號判決研析〉,係指:「後商標因較諸前商標廣為消費者所知悉,消費者反而誤以為前商標係仿冒後商標,或誤認為前商標與後商標係來自同一來源,或誤認兩商標之使用人間存在關係企業、授權、加盟或其他類似關係。」

  美國於1976年之Big O Tire Dealers, INC. v. Goodyear Tire & Rubber Co.案首度在侵害商標權訴訟承認有反向混淆之適用。然而,由於美國採「使用主義」(First to use),商標之認定係以使用的先後判斷之。而我國採註冊主義,商標先後以申請註冊的時間判斷之。我國最高行政法院105年度判字第465號判決則明確表示商標法明文規範商標註冊申請乃採先申請主義,排除反向混淆理論之適用。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 什麼是「商標的反向混淆誤認」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8098&no=55&tp=5 (最後瀏覽日:2026/04/20)
引註此篇文章
你可能還會想看
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

科專研發成果運用證券化模式之法制實踐

「智慧財產報告書」:開啟企業與市場之間的對話工具

日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。   為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。   而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

TOP