何謂「商標名稱通用化」?

  商標具有表彰商品來源之功能,其設計為配合商品特色而具有識別性。商標註冊後,若不具有識別及表彰商品來源之特徵,而失去商標應有之基本功能,依據商標法第63條第4款,不具識別性之商標,無法主張商標專用之權利。商標名稱通用化,即是指原本具有識別性之商標,通常為著名商標,因為社會大眾消費習慣以及認知的改變,變成商品的通用名稱,此時即認該商標失去識別性,失去法律保護。

  商標名稱通用化形成之原因不一,可能是企業經營者設計商標時,有意使用社會大眾熟悉之名稱作為商標,也有可能非商標權利人自己故意造成,特別是著名商標,容易流於通用化。例如,「可樂(cola)」一詞由可口可樂(coca cola)公司率先註冊使用,但於消費者心目中已成為特定碳酸飲料之名稱,則不得由可口可樂公司獨占使用;又如火柴盒玩具汽車,為火柴盒大小包裝之玩具,企業經營者以 matchbox 作為該玩具的文字商標,但美國聯邦最高法院認為matchbox屬於該商品之通用名稱,否認其商標權。

  實務上判斷商標名稱通用化,以該商標名稱在一般消費者心目中認識的主要意義為標準。一個經過市場行銷之註冊商標名稱,若在消費者心目中屬於商品通用名稱,而非特定商品來源,則表示該商標名稱已不具備商標功能,不受法律保護。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「商標名稱通用化」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8089&no=57&tp=5 (最後瀏覽日:2026/03/17)
引註此篇文章
你可能還會想看
德國2021年再生能源法修正草案最新發展

  德國的再生能源法(Renewable Act)在經歷過2014年及2016年兩次較大的修正後,今年度九月由部分上議院議員提出修正草案。   德國再生能源法起源於20年前,當時主要重點在於提升離岸發電、太陽光電(Solar PV)及生物氣體、水力資源對於城市用電的供應率。由於現階段德國幾乎半數的城市用電仰賴上開再生能源,因此2021年度的修法上,主要導向了協助再生能源廠得以更完善的準備進入市場,包括與現有的政策發展接軌,例如2020年的國家氫能源政策(hydrogen strategy)及電動車的電價制定等。以下將列舉數項較為重大之項目: 實現2050年碳中立的目標 結合歐盟遠大的氣候目標 擴大再生能源產能 重新制定再生能源徵收稅款 提高公眾對於再生能源的接收度 於德國南方增設更多風力發電的渦輪機及生物燃料 訂定彈性電價 提升太陽能板安裝回饋酬勞 響應氫能源政策,擬使氫能源廠商於使用再生能源時得免付費(但此項提案尚待利害關係人取得共識)。   本次再生能源法的修正提案誠然立意良善,但仍有不少批評者認為,本次修法未將日後使用再生能源的人數可能增加一事納入考量,且未將老舊風機重新供電等事納入法規中。   而根據11月份修法決議結果,德國政府並未採納上開提案,其中主要理由是認為該草案所列之內容無法達成氣候目標(climate targets),並建議該提案應擴張再生能源產能,尤其是離岸風電及太陽能。德國能源部則認為提案中所預估的2030年電力需求過低,無法切實因應未來的需求,是以,未來德國再生能源法之修法方向仍有待持續觀察。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險

日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

「自動駕駛車(self-driving car)」可否合法上路?

  「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。   目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。   而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。

TOP