因應韓美自由貿易協定,韓國實施新修正之專利及商標制度

  韓國特許廳於2011年11月22日送交韓國國會批准之韓美自由貿易協定(Free Trade Agreement,簡稱FTA),於2012年3月15日正式生效。為因應韓美FTA的簽定,韓國專利及商標制度均須進行一定幅度的修正,例如專利權存續期間延長、聲音及氣味得註冊為商標等新制度。

 

  首先,專利法修正重點如下:

 

  1. 專利權存續期間延長:指針對因審查過程緩慢,導致專利登記遲延者,遲延期間得視為專利權之存續期間。

     

  2. 專利申請優惠期延長:專利申請人將其發明公開發表在學術期刊時,將申請之優惠期從公開後6個月延長至12個月,亦即12個月內提出申請仍可取得專利。

     

  3. 廢止專利權撤銷制度:將發明專利在韓國國內一定期間(最少5年)不實施之撤銷專利權事由,予以廢止。

 

  其次,商標法修正重點如下:

 

  1. 增訂新型態商標及證明標章制度:聲音、氣味得註冊為商標;新增證明標章之保護態樣,以證明「品質」、「原產地」、「生產方法」等特性。

     

  2. 廢止商標之專用使用權登記制度:修法前之韓國商標法第56條第1項第2款規定,商標專用使用權之設定、移轉(一般繼承之情形除外)、變更、消滅(權利混同之情形除外)或處分之限制等事項,非經登記,不生效力。

     

  3. 新增法定損害賠償制度:商標權人除可依照實際侵害情況請求損害賠償,商標法亦新增權利人得請求法定5千萬韓圜範圍內的損害賠償金額,且須經法院判決同意該損害賠償額度。

 

  此外,針對專利法、新型專利法、設計保護法、商標法、不正競爭防止及營業秘密保護法等法規,也一併新增「保密命令制度」,亦即透過訴訟程序,對於營業秘密有被公開之虞之情形時,法院可對雙方當事人作出不得公開之保密命令。韓國期透過此次專利法及商標法等相關法規之修正,讓專利權人於權利行使期間得以獲得實質保障,同時亦擴大企業商標選擇之範圍。

相關連結
※ 因應韓美自由貿易協定,韓國實施新修正之專利及商標制度, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5840&no=55&tp=1 (最後瀏覽日:2026/04/29)
引註此篇文章
你可能還會想看
日本啟動大規模自動駕駛實證測試,聚焦高精度圖資與人機介面

  設置於內閣府內之SIP(跨部會戰略創新推動方案Cross-ministerial Strategic Innovation Promotion Program)「自動駕駛系統」計畫分項,於2017年10月3日起啟動大規模之自動駕駛實證測試。為加速實現系統之實用化,超過20個以上之國內外汽車製造商等機關,預計於東名高速道路、新東名高速道路、首都高速道路及常磐自動車道及東京臨海地區之一般道路,參加之大規模實證實驗。   SIP自動駕駛系統係從2013年開始,以早日實現自動駕駛系統實用化、透過技術普及以減少交通事故和實現次世代交通系統為目標,並協調產官學各界共同領域工作,和將研究開發推進之重點聚焦於自動駕駛用 Dynamic Map高精度3D地圖(由日本7家相關公司共同出資成立之Dynamic Map Platform= DMP 開發之3D地圖)、人機界面 (Human Machine Interface, HMI)、資訊安全、降低行人事故、次世代都市交通等5種技術領域。   研究開發由汽車製造商於公開場合下進行,並接受大眾檢視,於研究開發成果公布同時,也因海外製造商的參與促進國際合作與國際標準化。本次有超過20個機關參加規模,係日本自動駕駛最大規模實證實驗。

歐盟資通安全局發布《物聯網安全準則-安全的物聯網供應鏈》

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。   本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。   總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。

歐盟發布孤兒著作指令(2012/28/EU),期促進成員國數位典藏之流通運用

  為促進歐盟境內各成員國的典藏機構(圖書館、資料館、博物館等)之典藏數位化以及數位作品的流通,歐盟於2012年10月28日頒布Directive 2012/28/EU(俗稱孤兒著作指令),本指令允許典藏機構基於「公益」目的利用孤兒著作從事營利之商業行為,並要求各成員國應於2014年10月29日前完成國內法的轉換程序,本指令有以下特色:   (一)界定適用之機構與標的:適用之機構包括各成員國境內為公共利益所建立的公有典藏機構,包括公共圖書館、教育機構、博物館、資料館、電影與錄音典藏單位、公共電視台等。適用標的亦限制在前述機構數位典藏之作品,包括傳統出版品之書籍與報刊雜誌,以及電影、影音與錄音作品等。此外,指令同樣適用於附著在其他作品或構成他作品一部分(如書中的一張照片)的著作物,以及未出版之作品,例如書信、手稿等。   (二)明確定義「勤勉尋找」(diligent search)之最低標準:根據指令第3條第2項規定,所謂「勤勉尋找」之標準可由各會員國自行界定,但至少要包括本指令附件所載之各類資料庫、法定送存處(legal deposit)、以及相關著作權集體管理組織等。   (三)確立孤兒著作狀態相互承認機制:當一項著作在特定會員國被視為孤兒著作時,該效力便及於整個歐盟。另外,本指令第3條第6項亦規定歐盟各成員國應當將孤兒著作之狀態回報給歐盟內部市場調何局(Office for Harmonization in the Internal Market)。   (四)得基於公益性質(public-interest missions)將孤兒著作為商業授權之利用:典藏機構得基於公益性質將孤兒著作為商業授權之利用,特別是為保存或復原典藏物、或提供文化或教育上之近用等,可與其他公、私部門共同利用孤兒著作從事商業授權行為,並將收益彌補因前述典藏數位化所耗費的成本。   從歐盟孤兒著作指令的立法緣由與內容來看,其主要目的係在於釋放公有數位典藏的能量,以便可以達到歐盟在2010年所設定之活絡數位單一市場之目標。另本指令為加速典藏機構針對孤兒著作釋出的配套措施,例如明確定義勤勉搜尋的範圍,以及典藏機構得基於公益性質而將孤兒著作為商業授權之利用等,亦值得我國借鏡。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP