經查,韓國《不正當競爭預防和營業秘密保護法》(下稱UCPA)之修正案於2024年1月國會通過、2月公布,預計將於8月21日生效。旨在加強對於營業秘密侵權行為的法規監管與處罰力度,故本次修訂以營業秘密相關規定之修正為主,以其他修正(如商標、標誌、地理標示誤用、侵權或其他不公平競爭行為)為輔,本文摘要如下:
一、與營業秘密相關
(一)懲罰性賠償之加重:根據第14-2條第6項規定,針對「故意」營業秘密侵權行為,將懲罰性賠償從3倍上修到5倍。
(二)增加營業秘密侵權行為之監管與罰責:新增第9-8條規定,將「任何人在未經正當授權或超越授權範圍的情況下,不得損害、破壞或改變他人的營業秘密」納入規範,如有違反,將透過新增之第18條第3項規定課予最高10年監禁或最高5億韓元的罰款。
(三)加強對於企業(組織犯罪)之管制效力:基於修法前法人與自然人之罰款數額相同、企業的追訴時效短於自然人,造成難以抑止組織犯罪行為,故新增第19條規定,使企業罰款最高可處自然人罰款3倍,並新增第19-2條規定,將對企業的公訴時效延長至10年(與自然人之訴訟時效同)。
(四)新增沒收規定:依據修法前規定,即使透過UCPA提起訴訟,且侵權人承認侵權,但因為缺乏沒收規定(需要另外依據民事訴訟法才能對犯罪所得進行沒收),導致防止二次侵權損害之效果有限,故修法後透過第18-5條之規定納入可沒收特定營業秘密所得之規定。
二、其他修正
以下兩項修正之對象涉及第2條第1項第1款、第3條、第3-2條第1款(主要為商標、標誌、地理標示等誤用、侵權或其他不公平競爭行為),並不包括營業秘密(營業秘密第2條第1項第2款以下):
(一)加強行政機關的職權:根據第8條規定,關於上述違規行為,相較修法前行政機關僅能提出「建議」(無強制力),修法後特別賦予智慧財產局(KIPO)可以「下令糾正」(시정을 명할 수 있다)之權利,即若未有正當理由依命令糾正者可依照第8條、第20條第1項第1、2款規定公布違反行為及糾正之建議或命令的內容,並對其進行罰款。
(二)法院查閱行政調查記錄的權力的擴張與限制:根據第14-7條規定賦予法院職權,即在法院在特定訴訟中認為必要時,可以要求相關行政單位向法院提出其依據第7條執行的調查紀錄(包括案件當事人的審問筆錄、速記紀錄及其他證據等),若相關紀錄涉及營業秘密,當事人或其代理人可向法院申請就查閱範圍、閱覽人數等進行限制。 綜上所述,可以發現此次修法除了加強法規的監管、處罰力度,顯示近年重視營業秘密爭議外,更特別修訂針對企業、法人等組織犯罪相關規定(如賠償金額的增加,甚至處罰力度大於自然人、訴訟時效的延長等),間接強調企業、法人等組織對於營業秘密侵權有內部管理與監督之責任,若參照資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」對於企業內部管理與監督如何落實之研究,係透過將管理措施歸納成(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)十個單元的PDCA管理循環,旨在提供企業作為機制建立之參考或自我檢視機制完善性的依據,期冀促進企業落實營業秘密管理。
本文同步刊登於TIPS網(https://www.tips.org.tw)
歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
美國微軟、Yahoo和Google違反網路賭博規定遭處鉅額罰款美國司法部(Department of Justice)指控微軟、Yahoo和Google三家入口及搜尋網站業者,於1997到2007年間,違反禁止網路賭博之規定,接受非法賭博業者委託刊登線上廣告。 美國司法部認為此三家公司除違反聯邦線上博奕法(Federal Wire Wager Act)禁止賭博之規定以外,另違反聯邦博奕課稅條例,以及各州與地方有關禁止賭博之規定。為此,美國國稅局(Internal Revenue Service)和聯邦調查局亦介入此一案件之調查,並與司法部共同認為微軟、Yahoo和Google等著名入口網站對於社會具有重大影響力,刊登線上賭博廣告之行為不僅違反法規事實明確,對於間接促進相關線上賭博產業之興盛與賭博行為之猖獗亦應負社會責任。 在法院進行實質審理前,三家公司已於2007年12月與司法部達成和解協議,同意支付3150萬美元之罰金(折合台幣約10億元),並配合線上公益及宣導賭博違法等義務。
加拿大交通部提出加拿大自駕系統安全評估文件加拿大交通部(Department of Transport Canada)於2019年1月發布「加拿大自駕系統安全評估(Safety Assessment for Automated Driving Systems in Canada)」文件,該文件將協助加拿大企業評估其發展高級(SAE第三級至第五級)自駕層級車輛之安全性,並可與美國相關政策進行整合。該文件指出,因相關技術尚在發展之中,不適合使用強制性規範進行管制,因此將利用引導性之政策措施來協助相關駕駛系統安全發展。加拿大交通部於文件中指出可用於評估目前自駕車輛研發成果之13種面向,並將其分類為三個領域: 自駕技術能力、設計與驗證:包含檢視車輛設計應屬何種自駕層級與使用目的、操作設計適用範圍、物件及事件偵測與反應、國際標準、測試與驗證等。 以使用者為核心之安全性:包含安全系統、人車界面與控制權的可取得性、駕駛/使用人能力與意識教育、撞擊或系統失靈時的運作等。 網路安全與資料管理:包含管理網路安全風險策略、售後車輛安全功能運作與更新、隱私與個資保障、車輛與政府分享之資訊等。 加拿大交通部鼓勵企業利用該文件提出安全評估報告並向公眾公開以增進消費者意識,另一方面,該安全評估報告內容也可協助加拿大政府發展相關安全政策與規範。
歐盟資料治理規則提出資料利他主義制度以利於公益目的之利用歐盟於2022年5月30日正式簽署通過「資料治理規則」,同時引入(EU)2018/1724修正案(REGULATION (EU) 2022/868 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on European data governance and amending Regulation (EU) 2018/1724),針對資料中介組織及資料利他主義組織業務啟動、營運等註冊程序進行補充。 資料治理規則也通稱為資料治理法(Data Governance Act, DGA)。DGA以建立一個可信賴的資料流通環境,達成資料的可利用性,以促進資料可用於各項研究以及創新的商品和服務為目標。 DGA中,特別引人注意的是第四章「資料利他主義」(Data altruism)的提出。依據資料治理規則第二條,所謂的資料利他主義係指資料主體基於自願且無償的情況下,同意他人得處理或利用其所持有的個人資料;或資料持有者在不尋求補償的情況下允許他人得利用其所有的非個人資料(non-personal data)。而這些資料利用的目的是以實現公共利益為目標,例如醫療保健、解決氣候變化、改善交通、促進公部門統計資料的產製與應用、改善公共服務、制定公共政策,或是科學研究等。 為利於資料利他主義的落實,歐盟希望有明確的的制度設計,藉以促成更多資料主體或資料持有人,在有足夠信任的基礎下,願意將資料無償提供並進行公益目的之利用,進而實現改善生活的目標。 因此,DGA中提出以下作法: 制訂「歐洲資料利他主義同意書」(European data altruism consent form):該法授權歐盟執委會應在諮詢過歐盟資料保護委員會(European Data Protection Board)以及考慮過DGA新設之歐盟資料創新委員會(European Data Innovation Board)的意見後,制定統一的「歐洲資料利他主義同意書表格」。以此增加資料主體對於資料授權的信任,提高資料主體同意將資料釋出與流通再利用之意願,並為授權或撤銷同意建立法遵明確性。 資料利他主義組織(data altruism organisations)管理機制: (1) 資料利他主義組織採自願註冊制度,而非許可制。在資料利他主義於符合形式登記要件後,並符合非營利、透明性以及滿足保障民眾權利等要求後,於其所屬會員國中註冊以成為公認(recognised)的資料利他主義組織。採自願註冊而非許可制的目的,是希望先以管制密度較低的方式,鼓勵更多組織投入資料利他主義的推動。 (2) 給予已註冊之資料利他主義組織識別標誌:透過相關的認可機制並授予識別標誌,藉此提高資料利他主義組織的可辨識度與信賴度,讓民眾在選擇合作的組織時有所依循。 (3) 透明度要求:為了增加資料主體或資料持有者對該組織的信任度,歐盟也將對資料利他主義組織進行一定程度的監督管理,例如年報編列與管理、是否以清晰易懂方式通知資料主體或資料持有者其資料被利用的目的、需保留資料利用之所有紀錄等。此外,也需要遵守DGA授權歐盟執委會未來訂定的相關補充規範。 整體而言,歐盟將資料利他主義的公益精神經由法制化的方式納入歐洲資料治理規則,透過歐洲資料利他主義同意書以及資料利他主義的相關管理規範,降低溝通成本以及建立信任基礎,以增加資料釋出的可能性,進而提升資料被利用的程度,最終達成改善人類福祉的目標。