經查,韓國《不正當競爭預防和營業秘密保護法》(下稱UCPA)之修正案於2024年1月國會通過、2月公布,預計將於8月21日生效。旨在加強對於營業秘密侵權行為的法規監管與處罰力度,故本次修訂以營業秘密相關規定之修正為主,以其他修正(如商標、標誌、地理標示誤用、侵權或其他不公平競爭行為)為輔,本文摘要如下:
一、與營業秘密相關
(一)懲罰性賠償之加重:根據第14-2條第6項規定,針對「故意」營業秘密侵權行為,將懲罰性賠償從3倍上修到5倍。
(二)增加營業秘密侵權行為之監管與罰責:新增第9-8條規定,將「任何人在未經正當授權或超越授權範圍的情況下,不得損害、破壞或改變他人的營業秘密」納入規範,如有違反,將透過新增之第18條第3項規定課予最高10年監禁或最高5億韓元的罰款。
(三)加強對於企業(組織犯罪)之管制效力:基於修法前法人與自然人之罰款數額相同、企業的追訴時效短於自然人,造成難以抑止組織犯罪行為,故新增第19條規定,使企業罰款最高可處自然人罰款3倍,並新增第19-2條規定,將對企業的公訴時效延長至10年(與自然人之訴訟時效同)。
(四)新增沒收規定:依據修法前規定,即使透過UCPA提起訴訟,且侵權人承認侵權,但因為缺乏沒收規定(需要另外依據民事訴訟法才能對犯罪所得進行沒收),導致防止二次侵權損害之效果有限,故修法後透過第18-5條之規定納入可沒收特定營業秘密所得之規定。
二、其他修正
以下兩項修正之對象涉及第2條第1項第1款、第3條、第3-2條第1款(主要為商標、標誌、地理標示等誤用、侵權或其他不公平競爭行為),並不包括營業秘密(營業秘密第2條第1項第2款以下):
(一)加強行政機關的職權:根據第8條規定,關於上述違規行為,相較修法前行政機關僅能提出「建議」(無強制力),修法後特別賦予智慧財產局(KIPO)可以「下令糾正」(시정을 명할 수 있다)之權利,即若未有正當理由依命令糾正者可依照第8條、第20條第1項第1、2款規定公布違反行為及糾正之建議或命令的內容,並對其進行罰款。
(二)法院查閱行政調查記錄的權力的擴張與限制:根據第14-7條規定賦予法院職權,即在法院在特定訴訟中認為必要時,可以要求相關行政單位向法院提出其依據第7條執行的調查紀錄(包括案件當事人的審問筆錄、速記紀錄及其他證據等),若相關紀錄涉及營業秘密,當事人或其代理人可向法院申請就查閱範圍、閱覽人數等進行限制。 綜上所述,可以發現此次修法除了加強法規的監管、處罰力度,顯示近年重視營業秘密爭議外,更特別修訂針對企業、法人等組織犯罪相關規定(如賠償金額的增加,甚至處罰力度大於自然人、訴訟時效的延長等),間接強調企業、法人等組織對於營業秘密侵權有內部管理與監督之責任,若參照資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」對於企業內部管理與監督如何落實之研究,係透過將管理措施歸納成(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)十個單元的PDCA管理循環,旨在提供企業作為機制建立之參考或自我檢視機制完善性的依據,期冀促進企業落實營業秘密管理。
本文同步刊登於TIPS網(https://www.tips.org.tw)
美國聯邦總務署(General Service Administration)於2024年6月27日發布《新興科技優先審查架構》(Emerging Technologies Prioritization Framework),該架構係為回應拜登總統針對AI安全所提出之第14110號行政命令,而在「聯邦政府風險與授權管理計畫」(Federal Risk and Authorization Management Program,以下簡稱FedRAMP)底下所設置之措施。 一般而言,雲端服務供應商(cloud service providers)若欲將其產品提供予政府單位使用,需依FedRAMP相關規範等候審查。《新興科技優先審查架構》則例外開放,使提供「新興科技」產品之雲端服務供應商得視情況優先審查。 現階段《新興科技優先審查架構》所定義之「新興科技」係為提供下列四種功能的生成式AI技術: 1.聊天介面(chat interface):提供對話式聊天介面的產品。允許用戶輸入提示詞(prompts),然後利用大型語言模型產出內容。 2.程式碼生成與除錯工具(code generation and debugging tools):軟體開發人員用來協助他們開發和除錯軟體的工具。 3.圖片生成(prompt-based image generators):能根據使用者輸入之文字或圖像而產生新圖像或影像的產品。 4.通用應用程式介面(general purpose API):基於API技術將前述三項功能加以整合的產品。 美國政府為挑選最具影響力的產品,要求雲端服務供應商繳交相關資料以利審查,例如公開的模型卡(model card)。模型卡應詳細說明模型的細節、用途、偏見和風險,以及資料、流程和參數等訓練細節。此外,模型卡應包含評估因素、指標和結果,包括所使用的評估基準。 《新興科技優先審查架構》第一波的申請開放至2024年8月31日,且FedRAMP將於9月30日宣布優先名單。這項措施將使生成式AI技術能夠以更快的速度被導入政府服務之中。
日本政府擬建構自動駕駛實驗資料收集和共享體制日本內閣下設之日本經濟再生本部(日本経済再生本部),為實現2017年6月於「未來投資戰略2017」所提出之建立實驗資料共享體制政策,於2017年8月31日起舉辦自動駕駛官民協議會(自動走行に係る官民協議会),邀請政府相關部門及民間專家等關係人士,檢討自動駕駛實驗結果、實驗資料之共享,以及根據民間需求進行實驗計畫之工程管理等制度的整備方向,預計於年內針對複雜的駕駛環境制定共通指標,以釐清哪些資料是應收集之實驗資料,建構自動駕駛實驗資訊共享、收集體制。自動駕駛官民協議會預計在未來幾次會議中,針對應收集之實驗資料、標準格式、體制、實驗計畫的進程管理、官民合作事項等進行討論,並將在未來投資會議中報告檢討結果,其結果將與明年度之成長戰略一同反映於「官民ITS‧構想藍圖」(官民ITS構想・ロードマップ)中。
美國衛生及公共服務部提出雲端服務適用健康保險可攜與責任法之相關指引美國醫療產業使用境內或境外雲端服務(Cloud Services)急速成長,導致「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act,以下簡稱HIPAA)規範下之「適用機構」(Covered Entities)與其「商業夥伴」(Business Associate),對於雲端服務業者如何適用HIPAA感到疑惑。因此,衛生及公共服務部民權辦公室(Department of Health and Human Services, Office for Civil Rights)於10月7日公布相關業者如何適用HIPAA之指引,以釐清爭議。 於該指引中,該部指出,雲端服務業者若替適用機構或是商業夥伴創造、接收、維護、傳送被HIPAA所保護之「資療資訊」(Protected Health Information),則該雲端業者就被視為HIPAA下規範之商業夥伴,原因在於該服務具有儲存與維護醫療資訊功能,非屬該法排除適用之「網路服務業者」(Internet Service Providers)資料傳輸服務類型。 該指引有幾大重點:首先,雲端服務業者如將該醫療資訊提供加密儲存服務,仍應盡到HIPAA中規範商業夥伴之責任。原因在於加密資料不足以保護HIPAA有關資訊安全章節所要求醫療資訊之「機密性、完整性和可用性」之相關規範。再者,雲端業者皆須與委託方簽署商業夥伴協議(Business Associate Agreements)。此外,使用雲端服務儲存資療資訊時,委託方皆能使用行動設備進入雲端儲存之醫療資料,但應建立合乎HIPPA所要求相關之安全措施。最後,HIPAA並未禁止將醫療資訊儲存至伺服器為於美國境外之雲端業者,但使用前應自行評估該資訊遭駭客攻擊之可能性。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現