韓國2012年度國家智財施行計畫檢討評估結果出爐
科技法律研究所
2014年03月26日
壹、事件背景
韓國國家智慧財產委員會(以下簡稱智財委員會)於2013年11月13日公布「2012年度國家智財施行計畫之檢討評估結果」。韓國智財委員會係依智慧財產基本法第10條,檢討、評估施行計畫之推動情形。檢討評估對象係針對2012年度國家智財施行計畫(以下簡稱施行計畫)之5大政策面向:創造、保護、運用、基礎環境、新智慧財產,挑選出重點推動共21個課題。另為確保評估之專業性及客觀性,由民間專家組成「政策評估團」,並召開會議就不同的推動課題討論,然後以等級決定優劣。
針對21個課題進行檢討評估之結果顯示,被評為優秀等級之課題有4個,分別為「透過改善研究發展體系,創造高品質智慧財產」、「加強智慧財產侵權物品國境管制措施」、「塑造尊重智慧財產文化」、「建構、運用新植物品種育種之基礎環境」;而需要改善之課題則有3個,即「支援海外當地侵權之因應」、「強化地方中小企業之智財能力」、「發掘及確保海洋生物資源與智財創造之支援」。以下就評估方法及結果扼要說明之。
貳、評估方法及結果概述
韓國考量到智財施行計畫之特殊性,且加上是首次推動、評估國家層級智財政策之成效,所以不僅是評估政策成果,同時也要對政策形成、執行等政策基礎環境之確保等相關要素進行評估,對此,韓國設定3項評估指標:「政策形成」、「政策執行」、「政策成果」,詳細指標內容如下表所示:
|
區分 |
評估項目 |
評估基準 |
|
政策形成(30%) |
1.計畫確立之適切性(15%) |
1-1.事前分析、意見蒐集之充實性(5%) |
|
1-2.成果指標及目標值之適當性(10%) |
||
|
2.政策基礎環境之確保水準(15%) |
2-1.推動體系之充實性(5%) |
|
|
2-2.資源分配之適當性(10%) |
||
|
政策執行(35%) |
3.推動過程之效率性(25%) |
3-1.推動日程之充實性(10%) |
|
3-2.相關機關與政策連結性(10%) |
||
|
3-3.監督及情況變化之對應性(5%) |
||
|
4.政策擴散之努力水準(10%) |
4-1.政策溝通、宣傳、教育之充實性(10%) |
|
|
政策成果(35%) |
5.政策成果及效果(35%) |
5-1.成果目標達成度(20%) |
|
5-2.政策效果(15%) |
為確保評估之專業性及客觀性,由韓國智財委員會之民間委員、及下設之創造、保護、運用、基礎環境、新智慧財產等專門委員會之專門委員,以及地方自治團體代表等30位成員組成政策評估團。每位評估委員就各機關提出之實績報告書內容為判斷依據,再依照不同指標之特性,進行定量和定性評估。政策評估團第1次評估完畢後,就會召開調整會議,決定各推動課題之評估等級(分成優秀、普通、需要改善3個等級)為何。
整體而言,韓國的智慧財產創造能力已提高不少,且韓國國內對智財保護水準亦逐漸提升,另外,對於智慧財產創造、保護、運用之正向循環體系所需之配套措施如新智慧財產相關法制,初步已整備完成。韓國之後擬要持續提高智財成果之品質,加強韓國在海外的智財保護,並且增進民間對智財運用政策之有感度,以及推動與新智財相關之各部會間對智財業務範圍調整與政策方面之合作推動。
歐盟《人工智慧法》(Artificial Intelligence Act, AIA)自2024年8月1日正式生效,與現行的《醫療器材法》(Medical Devices Regulation, MDR)及《體外診斷醫療器材法》(In Vitro Diagnostic Medical Devices Regulation, IVDR)高度重疊,特別是針對用於醫療目的之人工智慧系統(Medical Device AI, MDAI)。為釐清三法協同適用原則,歐盟人工智慧委員會(Artificial Intelligence Board, AIB)與醫療器材協調小組(Medical Device Coordination Group, MDCG)於2025年6月19日聯合發布常見問答集(Frequently Asked Question, FAQ),系統性說明合規原則與實務操作方式,涵蓋MDAI分類、管理系統、資料治理、技術文件、透明度與人為監督、臨床與性能驗證、合規評鑑、變更管理、上市後監測、資安與人員訓練等面向。 過去,MDR、IVDR與AIA雖各自對MDAI有所規範,但始終缺乏明確的協同適用指引,導致製造商、監管機關與醫療機構在實務操作上常面臨混淆與困難。本次發布的指引透過36題問答,系統性釐清三法在高風險MDAI適用上的關聯,重點涵蓋產品分類原則、合規評鑑流程以及技術文件準備要點,具高度實務參考價值。此外,傳統醫療器材的上市後監測,難以有效因應AI系統持續學習所帶來的風險。AIA因此要求高風險MDAI建立強化的上市後監控系統,並評估AI系統與其他系統交互作用可能產生的影響。 整體而言,該指引的發布不再僅限於MDAI技術層面的合規審查,而是進一步擴展至資料正當性、系統可控性、使用者能力與整體風險治理等層面,體現歐盟對AI倫理、透明與責任的制度化落實。此文件亦為歐盟首次系統性整合AI與醫療器材監管原則,預期將成為MDAI產品研發與上市的重要參考依據。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
日本數位市場競爭中期展望報告提出數位市場競爭短中期策略日本數位市場競爭本部(デジタル市場競争本部)於2020年6月發布了「數位市場競爭中期展望報告」(デジタル市場競争に係る中期展望レポート案),該報告認為大型數位平台業者透過龐大的用戶資料,不斷地(1)擴大並連結用戶、(2)垂直整合上下游產業並(3)從虛擬鎖定實體的銷售,對市場形成動態競爭(ダイナミック競争)結果。此一結果將導致數位市場極易形成掠奪性定價或併購的風險、資料集中的風險、資料可靠性的風險,甚至是個人價值判斷的風險。 為促進數位市場的治理與信任,該報告提出了以下短期與中長期的政策方向: 鼓勵企業數位轉型以增加數位市場的多樣性:推廣數位轉型指標、擴大沙盒制度適用、加速數位政府戰略。 建立數位市場競爭制度:運用經濟分析強化競爭管制、推動《數位平臺交易透明法》(デジタルプラットフォーム取引透明化法)法制化、建立大型數位平台調查機制。 建構去中心化的資料治理技術:透過資料持有、交換的「去人工干預」,形成一個可信任的網路世界。 該報告已於2020年8月7日完成公眾意見募集,預計於2020年年底前提出最終報告。目前日本新經濟聯盟認為,高頻率的競爭策略以及智慧化交易模式下的反壟斷政策,除了不正競爭的禁止外,政府更應著重在透明化檢視機制的建立。此外報告目前並未處理到平台資料治理的課題,聯盟對此認為政府應更積極地從資料壟斷的概念,調整數位市場准入的障礙。
美國白宮頒布有關於太空系統的網路安全原則《太空政策第5號指令》由於美國近年來透過太空系統進行通訊、定位導航、太空探索及國防等多方面應用,為避免太空系統受到網路威脅,白宮於2020年9月4日發布《太空政策第5號指令》(Space Policy Directive-5,SPD-5),該指令主要關注太空系統的網路安全,將現有地面使用的網路安全政策應用在太空系統中,旨在提高美國太空設施網路安全。 SPD-5指令建立以下五項太空網路安全原則,作為指導政府及民間單位提高太空系統網路安全的方法: 一、太空系統及相關軟硬體設施,應使用以風險等級為基礎的方式,進行開發運作並建構其網路安全系統。 二、太空系統營運商應制定太空系統網路安全計畫(應包含防止未經授權的存取行為、防止通訊干擾、確保地面接收系統免受網路威脅、供應鏈的風險管理等功能),以確保能掌握對太空系統的控制權。 三、監管機構應訂定規則或監管指南來實施SPD-5指令的原則。 四、太空系統的營運商及其合作對象應共同推動SPD-5指令,並盡力減少網路威脅的發生。 五、太空系統營運商在執行太空系統網路安全的保護措施時,應管理其風險承擔能力。 儘管SPD-5指令並未指示特定機構執行上開原則,但已有美國聯邦通信委員會將SPD-5之網路安全原則納入其法規中,未來SPD-5指令將有可能作為美國太空網路安全措施及法規訂定的基礎。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。