商標具有表彰商品來源之功能,其設計為配合商品特色而具有識別性。商標註冊後,若不具有識別及表彰商品來源之特徵,而失去商標應有之基本功能,依據商標法第63條第4款,不具識別性之商標,無法主張商標專用之權利。商標名稱通用化,即是指原本具有識別性之商標,通常為著名商標,因為社會大眾消費習慣以及認知的改變,變成商品的通用名稱,此時即認該商標失去識別性,失去法律保護。
商標名稱通用化形成之原因不一,可能是企業經營者設計商標時,有意使用社會大眾熟悉之名稱作為商標,也有可能非商標權利人自己故意造成,特別是著名商標,容易流於通用化。例如,「可樂(cola)」一詞由可口可樂(coca cola)公司率先註冊使用,但於消費者心目中已成為特定碳酸飲料之名稱,則不得由可口可樂公司獨占使用;又如火柴盒玩具汽車,為火柴盒大小包裝之玩具,企業經營者以 matchbox 作為該玩具的文字商標,但美國聯邦最高法院認為matchbox屬於該商品之通用名稱,否認其商標權。
實務上判斷商標名稱通用化,以該商標名稱在一般消費者心目中認識的主要意義為標準。一個經過市場行銷之註冊商標名稱,若在消費者心目中屬於商品通用名稱,而非特定商品來源,則表示該商標名稱已不具備商標功能,不受法律保護。
本文為「經濟部產業技術司科技專案成果」
美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。 這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標: 一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。 二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。 三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。 這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。
歐盟商標協會(ECTA)針對3D列印設計保護修法方向,向歐盟提交立場意見書2021年4月26日,歐盟商標協會(European Communities Trade Mark Association,以下簡稱ECTA)針對3D列印設計保護修法方向,向歐盟提交一份立場意見書(position paper)。歐盟自1998年發布《設計指令》(Directive 98/71/EC on the legal protection of designs)及2002年發布《設計規則》(Council Regulation(EC) No 6/2002 on Community designs)以來,已多年未進行修正;為了能對設計提供更有效的法律保護,歐盟從2018年起開始進行修法的公眾諮詢,並於2020年11月提出修法評估報告。 ECTA一直以來都很關注3D列印技術發展涉及的智慧財產議題,在意見書中列出了修法時應納入評估的重點。例如ECTA指出,雖然3D列印所使用的CAD模型檔案僅是列印過程中的媒介,檔案本身不能受到設計法律的保護,但檔案中包含了設計藍圖及其設計特徵,為了讓以數位形式呈現的設計能受到保護,建議應考慮修改《設計規則》第3條(b)及《設計指令》第1條(b)中對於產品(product)的定義,將CAD模型檔案及其他任何含有以數位形式呈現設計的物件(items)也納入產品的定義之中。 其次,ECTA認為應針對任何明知有侵權事實,但仍提供幫助的行為人課予輔助侵權責任(contributory infringement),以提供設計權人更有效的武器來捍衛自身權利。如行為人未經設計權人同意,自行利用3D儀器掃描物體,根據所得數據製作成CAD模型檔案,並將該CAD模型檔案提供給直接侵權人時,應成立輔助侵權。 最後,ECTA認為目前沒有針對3D列印技術制定專法的必要,僅需要在現行智財法律體系中進行修法調整即可,以避免法律體系過於複雜。
美國眾議院通過電信基礎設施安全四大法案,以防止採用構成國家安全風險的設備美國眾議院(United States House of Representatives)於2021年10月20日通過安全設備法案(Secure Equipment Act)、通訊安全諮詢法案(Communications Security Advisory Act)、資通訊科技戰略法案(Information and Communication Technology Strategy Act)與國土安全部軟體供應鏈風險管理法案(DHS Software Supply Chain Risk Management Act),以提高網路之可信任度、防止採用構成國家安全風險的設備、支持小型通訊網路供應商,並促進產業供應鏈的經濟競爭力。美國總統拜登(Joseph Robinette Biden Jr.)於同年11月11日完成簽署《安全設備法》。 《安全設備法》旨在禁止聯邦通訊委員會(Federal Communications Commission, FCC)頒發設備許可予構成美國國家安全風險之公司,其目的係為防止美國的網路系統遭受中國大陸設備的監控,保護美國公民的隱私與安全。近年來,美國以國家安全與技術、隱私保護為由,逐步以政府禁令或動用政府影響力,防堵華為、中興等其認為與中國政府關係密切之中國通訊設備業者。自2019年5月15日美國白宮頒布之第13873號行政命令,至2021年10月20日美國眾議院通過電信設施基礎安全四大法案,並美國商務部於隔日即發布「禁止出售、出口駭客監視工具予曾有侵犯人權紀錄的專制政府及地緣政治之敵人」等規定,各種限制手段展現美國保護國土安全之決心。 此外,《通訊安全諮詢法案》、《資通訊科技戰略法案》與《國土安全部軟體供應鏈風險管理法案》分別就通訊網路的安全性、可靠性與操作性;資通訊技術供應鏈報告(例如:定義何謂「對美國經濟競爭力至關重要的資通訊技術」等)」;以及資通訊技術或服務合約之指導方針如何改善國家網路安全等相關事項予以規範。目前,此三大法案皆於參議院二讀後提交至委員會,後續發展應密切關注。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。