2023年9月27日,韓國個人資訊保護委員會(Personal Information Protection Commission, PIPC)就《個人資料保護法》(Personal Information Protection Act, PIPA)執行命令之指引修正(Enforcement Decree Amendment Guide)草案展開諮詢,諮詢將持續至2023年11月30日為止。韓國於2023年3月修正個人資料保護法,該修正於2023年9月15日生效,而指引修正之目的即是協助各界能夠遵循新修法後的義務,因此該指引草案詳細說明了修法後有關資料蒐集、獲得當事人同意之條件、使用和提供存取要求等內容。最終版的指引預計將於2023年12月發布。
韓國個人資料保護法於2023年的修訂範圍廣泛,特別是關於跨領域和行業個人資料處理標準等,使得公私部門中的資料處理人員和資料隱私人員必須深入瞭解此些變化,以確保能遵守最新的法律規定。
修訂後的韓國個人資料保護法強調實際保障資料主體的權利,並調整網路和實體業務之間不一致的資料處理標準,藉以迎接全面的數位轉型。此次韓國個人資料保護法修正重點如下:
1.強調確保資料主體的權利,即使在緊急情況下蒐集或處理個人資料時仍須提供足夠的保護措施。
2.釐清並調整網路和實體業務的不明確或不一致的法規,例如資料外洩的報告和通知時限、蒐集和利用14歲以下兒童個人資料需要獲得法定監護人同意的要求,以及對違規行為實施行政處罰的標準等。
3.要求處理大量個人資料的公共機構需強化保護措施,包括應分析和檢查存取記錄、指定負責每個系統的管理員,以及通知使用公共系統未經授權存取個人資料的事件等。
4.跨境資料傳輸條件調整為可傳輸至保護程度與韓國相當的國家或地區;並調整處罰金額,防止處罰金額過高超出責任範圍。。
韓國PIPC主委表示,此次對韓國個人資料保護法的修訂,反映了對資料主體權利更強大保護的需求。同時,考慮到此次修法的變動較大,建議各領域從業人員皆須仔細確認相關法遵內容,PIPC將針對不同領域需求來量身定制說明活動,積極提高大眾對修訂後的《PIPA》內容的理解程度,以確保韓國個人資料保護法修正後的實施。
中國大陸科學技術部於2019年9月12日公布《關於促進新型研發機構發展的指導意見》,目標是提升國家創新體系整體效能。在2016年5月中國大陸國務院發布的《第十三個五年規劃綱要》提及,為強化科技創新的引導作用,必須優化創新組織體系,藉由發展市場導向的「新型研發機構」,推動跨領域偕同創新。故「新型研發機構」必須聚焦在科技創新需求,主要從事科學技術創新與研發服務,具備投資主體多元化、管理制度現代化、營運機制市場化、用人機制靈活的獨立法人機構,得依法註冊為科技類民辦非企業單位(社會服務機構)、事業單位和企業。 中國大陸科學技術部本次公布的指導意見,主要係針對「新型研發機構」在未來政策上之具體運作與發展方向提供指引,包括新型研發機構能夠申報的國家科研項目、鼓勵設立科技類民辦非企業單位的新型研發機構政策、政府獎勵科研措施等說明。 (一) 新型研發機構申報國家科研項目 本指導意見第11條,符合條件的新型研發機構,可申報國家科技重大專項、國家重點研發計劃、國家自然科學基金等各類政府科技項目、科技創新基地和人才計劃。 (二) 鼓勵設立科技類民辦非企業單位的新型研發機構 本指導意見第12條,科技類民辦非企業單位應依法進行登記管理,營運所得利潤主要用於機構管理運作、建設發展和研發創新等,出資方不得分紅。並得依據《中華人民共和國企業所得稅法》及非營利組織企業所得稅、職務科技成果轉化個人所得稅、科技創新進口稅收等規定,享受稅收優惠。 (三) 支持與獎勵科研措施 本指導意見第14條,地方政府得根據區域創新發展需要,支持新型研發機構建設發展,包括給予基礎建設、購買科研設備、人才住房配套服務;採用創新券(innovation vouchers),推動企業向新型研發機構購買研發創新服務。第15條,更鼓勵透過國家科技成果轉化引導基金,支持新型研發機構推動科研成果轉化。
歐洲央行提出7500億歐元之「緊急債券收購計畫」以因應新冠肺炎疫情歐洲央行(European Central Bank, ECB)於2020年3月18日提出7500億歐元之「緊急債券收購計畫」(Pandemic Emergency Purchase Programme),紓困金額占歐盟年GDP之7.3%,以協助歐盟面臨新型冠狀病毒(covoid-19)所帶來之經濟衝擊,同時也減緩再生能源產業因疫情所帶來之影響。 就此,歐洲央行總裁Christine Lagarde表示,對於紓困對象及方法,歐洲央行將採取不分產業類別自市場購買公債或私人債券之方式,以因應疫情所帶來之影響,其中也包含歐盟投資銀行(European Investment Bank, EIB)所發行之「綠色債券」(Green Bond)。又綠色債券係歐盟投資銀行於2007年所發行,又名「氣候意識債券」(Climate Awareness Bond),職是故,歐洲央行針對歐盟投資銀行綠色債券進行紓困將使再生能源產業蒙受其利。 依歐洲央行之「緊急債券收購計畫」,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買,亦即歐洲央行僅得自價證券買賣之交易市場購買債券,而不得直接購買首次出售之有價證券,此項限制,也包含歐盟投資銀行所發行之綠色債券。 以歐盟投資銀行綠色債券為例,歐洲央行之操作機制在於透過此項購買手段,提升歐盟投資銀行綠色債券之市場價格,同時讓歐盟投資銀行面對投資人時,可以享有較為優渥之議價空間,以降低歐盟投資銀行未來所要付給投資人之利率。同時歐洲央行可再進一步降低對於歐盟投資銀行之利息,進一步降低歐盟投資銀行因發行綠色債券所帶來之利息壓力,促使綠色產業得以因應疫情之衝擊。 如此歐洲央行即達成其目的,減緩投資市場之震盪,同時達到振興經濟產業效益。這也是為何,歐洲央行僅得自次級市場(Secondary Market)購買債券,而不得直接自初級市場(Primary Market)購買債券之原因。
美國修正通過外國情報偵察法(FISA)美國近期通過「外國情報偵察法」(Foreign Intelligence Surveillance Act, FISA)之修正案,其中,原先於1月份到期的第七章(Title VII)702條款(Section 702),重新延長授權6年,直至2023年12月31日。 此法案於1978年生效,為美國第一個要求政府須先獲得法院許可,始能進行電子監視的法律。法案宗旨係為平衡國家安全以及人民權利,基於憲法第四修正案對人民的保障,使身處美國領土內的人民免於被恣意監視,國家在通常情況下,須獲得外國情報偵察法院(Foreign Intelligence Surveillance Court, FISC)搜索票(warrant)才可對人民進行搜查。 本次法案修正通過後,使聯邦調查局能夠持續使用情報數據資料庫,以獲取有關美國人的信息,但法案新增要求聯邦調查局在預測性刑事調查中(predicated criminal investigation)如要索取與國家安全無關的內容,必須事先經FISC法院審查許可(court order)。 因911恐攻事件後出現的反恐需要,2008年增訂第七章702條款為FISA的正式條款,原本在今年1月到期,法案修正通過後,此條款延長授權6年。目的為美國公民提供隱私保護,禁止政府針對美國公民和位於美國境內的外國人為監視對象;僅處於國外的外國人,涉及外國情報資訊才可被列為本條進行監視的目標。允許情報部門,在三個政府部門(外國情報偵察法院,行政部門和國會)的監督下,收集關於國際恐怖分子,武器散布者以及其他位於美國境外的重要外國情報。 此項修正案保留702條款的操作靈活性,並加入了一些增強隱私措施及要求。惟,受質疑且具爭議的是,702條款條文內容規範,允許美國政府的情報機構--國家安全局(National Security Agency, NSA)基於該條款,例外不需法院搜索票,可向Google、Apple、微軟、Facebook或電信業者等美國企業蒐集、調閱國外非美國人用戶的海外通訊內容(包含電子郵件、電話、其他私人信息等),當這些被監聽的國外用戶之通訊對象係涉及美國人時亦同;意即,若美國人曾接觸被鎖定的國外對象,也會被納入調查並取得通訊紀錄等個資,且禁止業者通知受影響的用戶。曾有國會參議員試圖修改此法案,加入隱私保護條款,但最終並未獲多數同意。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)