韓國2012年度國家智財施行計畫檢討評估結果出爐

韓國2012年度國家智財施行計畫檢討評估結果出爐

科技法律研究所
2014年03月26日

壹、事件背景

  韓國國家智慧財產委員會(以下簡稱智財委員會)於2013年11月13日公布「2012年度國家智財施行計畫之檢討評估結果」。韓國智財委員會係依智慧財產基本法第10條,檢討、評估施行計畫之推動情形。檢討評估對象係針對2012年度國家智財施行計畫(以下簡稱施行計畫)之5大政策面向:創造、保護、運用、基礎環境、新智慧財產,挑選出重點推動共21個課題。另為確保評估之專業性及客觀性,由民間專家組成「政策評估團」,並召開會議就不同的推動課題討論,然後以等級決定優劣。

  針對21個課題進行檢討評估之結果顯示,被評為優秀等級之課題有4個,分別為「透過改善研究發展體系,創造高品質智慧財產」、「加強智慧財產侵權物品國境管制措施」、「塑造尊重智慧財產文化」、「建構、運用新植物品種育種之基礎環境」;而需要改善之課題則有3個,即「支援海外當地侵權之因應」、「強化地方中小企業之智財能力」、「發掘及確保海洋生物資源與智財創造之支援」。以下就評估方法及結果扼要說明之。

貳、評估方法及結果概述

  韓國考量到智財施行計畫之特殊性,且加上是首次推動、評估國家層級智財政策之成效,所以不僅是評估政策成果,同時也要對政策形成、執行等政策基礎環境之確保等相關要素進行評估,對此,韓國設定3項評估指標:「政策形成」、「政策執行」、「政策成果」,詳細指標內容如下表所示:

區分

評估項目

評估基準

政策形成(30%)

1.計畫確立之適切性(15%)

1-1.事前分析、意見蒐集之充實性(5%)

1-2.成果指標及目標值之適當性(10%)

2.政策基礎環境之確保水準(15%)

2-1.推動體系之充實性(5%)

2-2.資源分配之適當性(10%)

政策執行(35%)

3.推動過程之效率性(25%)

3-1.推動日程之充實性(10%)

3-2.相關機關與政策連結性(10%)

3-3.監督及情況變化之對應性(5%)

4.政策擴散之努力水準(10%)

4-1.政策溝通、宣傳、教育之充實性(10%)

政策成果(35%)

5.政策成果及效果(35%)

5-1.成果目標達成度(20%)

5-2.政策效果(15%)


資料來源:韓國國家智財委員會
表1智財施行計畫之政策評估指標

  為確保評估之專業性及客觀性,由韓國智財委員會之民間委員、及下設之創造、保護、運用、基礎環境、新智慧財產等專門委員會之專門委員,以及地方自治團體代表等30位成員組成政策評估團。每位評估委員就各機關提出之實績報告書內容為判斷依據,再依照不同指標之特性,進行定量和定性評估。政策評估團第1次評估完畢後,就會召開調整會議,決定各推動課題之評估等級(分成優秀、普通、需要改善3個等級)為何。

  整體而言,韓國的智慧財產創造能力已提高不少,且韓國國內對智財保護水準亦逐漸提升,另外,對於智慧財產創造、保護、運用之正向循環體系所需之配套措施如新智慧財產相關法制,初步已整備完成。韓國之後擬要持續提高智財成果之品質,加強韓國在海外的智財保護,並且增進民間對智財運用政策之有感度,以及推動與新智財相關之各部會間對智財業務範圍調整與政策方面之合作推動。

※ 韓國2012年度國家智財施行計畫檢討評估結果出爐, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6511&no=55&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
自日本產業競爭力強化法暨特區立法談監理沙盒立法之推動與課題

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

物聯網時代的資料保護防線-以歐盟GDPR為中心

美國針對政府雲端運算應用之資訊安全與認可評估提案

  為建構政府雲發展的妥適環境,美國於今年度啟動「聯邦風險與認可管理計畫」(Federal Risk and Authorization Management Program, FedRAMP),由國家技術標準局(National Institute of Standards and Technology, NIST)、公共服務行政部(General Service Administration)、資訊長聯席會(CIO Council)及其他關連私部門團體、NGO及學者代表共同組成的跨部會團隊,針對外部服務提供者提供政府部門IT共享的情形,建構一個共同授權與持續監督機制。在歷經18個月的討論後,於今(2010)年11月提出「政府雲端資訊安全與認可評估」提案(Proposed Security Assessment & Authorization for U.S Government Cloud Computing),現正公開徵詢公眾意見。   在FedRAMP計畫中,首欲解決公部門應用雲端運算所衍伸的安全性認可問題,因此,其將研議出一套跨部門共通性風險管理程序。尤其是公部門導入雲端應用服務,終究會歸結到委外服務的管理,因此本計劃的進行,是希望能夠讓各部門透過一個機制,無論在雲端運算的應用及外部服務提供之衡量上,皆能依循跨機關的共通資訊安全評定流程,使聯邦資訊安全要求能夠協調應用,並強化風險管理及逐步達成效率化以節省管理成本。   而在上述「政府雲端資訊安全與認可評估」文件中,可分為三個重要範疇。在雲端運算安全資訊安全基準的部份,主要是以NIST Special Publication 800-535中的資訊安全控制項作為基礎;並依據資訊系統所處理、儲存與傳輸的聯邦資訊的敏感性與重要性,區分影響等級。另一部份,則著重在持續性的系統監控,主要是判定所部署的資訊安全控制,能否在不斷變動的環境中持續有效運作。最後,則是針對聯邦資訊共享架構,出示模範管理模式、方策與責任分配體系。

TOP