2025年6月23日,韓國個人資料保護委員會(개인정보보호위원회,下簡稱個資會)宣布修訂《個人資料保護法施行令》(개인정보 보호법 시행령)草案,擴大「本人傳輸請求權」(본인전송요구권)制度的適用範圍至特定大型個人資料處理者(개인정보처리자)。 南韓政府於2024年3月開始實施MyData(마이데이터)制度,賦予其國民「本人傳輸請求權」。所謂「本人傳輸請求權」,係指當事人向資料持有者請求傳輸個人資料給自己或特定第三方的權利,而個人資料則係指包含所有能夠識別本人身分或與本人有直接關聯的資訊。 本人傳輸請求權的立法目的,在於解決當事人將資料授權予特定企業或機關使用後,無法追蹤個人資料動向的問題。當事人可透過行使本人資料傳輸請求權,隨時確認資料如何被使用、有無被再次轉交他方,以及自由決定是否收回或轉移持有者擁有的個人資料。有助於解決個人資料利用權限一經授權後便難以掌控的問題,並提高國民對於個人資料的自主控制能力。 本次修法前,本人資料請求權的適用範圍僅限於醫療與電信產業,個人資料保護法施行令預告修訂草案進一步將符合以下標準的個人資料處理者納入本人傳輸請求權適用範圍: 1. 年營業額達1500億韓元以上的企業; 2. 持有個人資料人數達100萬人以上的企業或機構; 3. 敏感資料、高識別度資料達5萬人以上的企業或機構; 4. 2萬人以上大學或公部門機關。 韓國個資會此次提出的預告修訂草案,建立了一套可跨領域適用的個人資料管理政策架構,為國民資料自主性與控制權提供更完整的保護,值得作為我國個人資料治理制度之參考。
英國核准全球首例人類胚胎基因體編輯研究英國人類生殖及胚胎學管理局(Human Fertilisation and Embryology Authority)的執照委員會(Licence Committee)於2016年1月14日更新(renew)了法蘭西斯克利克研究中心(Francis Crick Institute)所持有的研究執照。該項更新的內容,成為全球首例由政府核准的人類胚胎基因體編輯研究。 本次更新的執照,是針對標號R0162實驗計畫(research project)所簽發的。該計畫全名是「人類剩餘胚胎幹細胞之研究:人類胚胎幹細胞之培養、維持多能性之因子特性以及形成可移植組織所需的特殊分化」(Derivation of stem cells from human surplus embryos: the development of human embryonic stem cell (hES) cultures, characterisation of factor necessary for maintaining pluripotency and specific differentiation towards transplantable tissues),該計畫的執照是在2005年時核准,有效期限至2016年3月26日。本次申請更新主要的變動有二,一是將計畫全名中的「剩餘」(surplus)二字拿掉,一是在執照內新增基因體編輯的研究技術──「CRISPR/Cas9」,並計劃將其運用在人類胚胎之上。 審查由人類生殖及胚胎學管理局所屬的執照委員會負責,該委員會由四位委員組成,有兩位行政機關人員負責行政事務,並有一名來自民間律師事務所的法律顧問負責提供法律意見諮詢的服務。 在審查的過程中,委員會依據申請人提交的計畫以及兩份同儕審查(peer review)的意見,審查了該計畫對人類胚胎進行人體試驗的可行性、必要性及合法性等議題。委員會確認該計畫的研究目的符合相關法令的要求,亦遵守規定不會使胚胎、卵子或精子置入女性身體或使其發育超過14天,同時該研究並確實為研究人類胚胎發育上所必要,也嚴格限制了使用的數量。 委員會僅對於其基因體編輯技術上未取得研究倫理委員會(Research Ethics Committee)的同意一事有所疑慮。委員會認為申請人應先取得研究倫理委員會的同意,才可申請執照。申請人解釋研究倫理委員會要求申請人要先取得執照更新後才願意開始審理,並承諾在通過倫理委員會同意後,才會開始相關實驗。在法律顧問的建議下,委員會最終通過了本次執照的更新,但在執照上加註相關實驗需待取得研究倫理委員會同意,並通知人類生殖與胚胎學管理局後,才可以實施。 委員會最終決定核發有效期限3年的執照給予該研究機關,於有效期限內,該研究機構可以保存、利用、儲藏胚胎。
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
企業監看員工網路活動法律爭議之防堵