歐盟個資保護委員會(EDPB)今(2021)年9月27日,就與南韓個人資料保護法(Personal Information Protection Act, PIPA)之適足性認定草案發表意見,認為南韓的個資保護框架與歐盟大致相同。但EDPB 同時也指出,在歐盟執委會做出決定之前,某些部分仍需要釐清。釐清的部分包含:
今年6月歐盟執委會公布並通過的適足性認定草案中,該草案之可執行性與有效性不應僅拘束南韓個資保護機構,也應對司法機構具有效力。除此之外,EDPB 也針對南韓PIPA 免除多項匿名化資訊之義務提出質疑;又南韓相關法令對「同意」之撤銷(或撤回)事由有所限定,應確保其對資料主體「同意」之保障持續符合適足性認定的要求。
至於在資料進一步移轉(onward transfers)方面,EDPB 認為即便資料主體知悉並同意其個資傳輸,仍應告知其資料是否會移轉到第三國之相關風險;以及若個資主體的同意無法符合GDPR 對有效同意之定義時(例如雙方地位不對等時,該同意即非有效),該個資不會從南韓之資料控管者傳輸至第三國;在對此議題南韓未具體修訂相關法令時,與國安相關的個資若進一步移轉,是否會受到憲法框架(如比例原則)和PIPA 中個資保護原則的充分保障?
而在行政部門存取傳輸到南韓的個資方面,許多議題也需要釐清並引起關注。如與國安方面相關的個資處理,係受PIPA 抑或其他更為限縮的法令限制?又電信業者自願向國安部門揭露使用者個資時,必須同時通知相關的個資主體;EDPB 並希望歐盟執委會釐清,若歐洲經濟區(EEA)內的個人向南韓個資保護機構或司法機構提出救濟時,相關的救濟程序是否實質有效(例如舉證責任的規定為何)?
於新聞稿中,EDPB 主席 Andrea Jelinek 表示:「歐盟對此適足性認定相當重視,因其將涵蓋公部門與私部門資料的傳輸。而適足的個資保護對支持歐盟與南韓的長期關係與個人權利、自由方面至關重要。雖然EDPB 認為南韓的個資保護框架與歐盟大致相同,然仍建議歐盟執委會密切關注適足性認定的各方發展。」
日本經濟產業省(Minister of Economy, Trade and Industry)所屬「自然資源及能源諮詢委員會(Advisory Committee for Natural Resources and Energy)」於2011年12月提出一份「日本能源基本計畫修正研析建議(Establishment of a New Basic Energy Plan for Japan)」,對於現有日本能源基本計畫,研析討論重要議題,並提出修正建議。 日本能源基本計畫,係因日本政府為因應2020年應達25%減碳目標(相較1990年水準),於2010年所規劃擬訂之推動計畫。而自然資源及能源諮詢委員會則是陸續招開會議研商討論,並提供建議給日本經濟產業作為省調修參考。此份報告指出,此份報告指出,能源基本計畫之推動架構必須重新思考,包括提議能源政策應強調重視「需求端(Demand Side)」,與兼顧「消費者(Consumers)」、「社會公民(Ordinary Citizens)」、「區域社區(Regional Communities)」等方面意見及利益,並建立社會公眾信心(Public’s Trust),以及必須能達到多元化不同電力能源之來源應用,並對於日本國家所需能源組成結構(Desired Energy Mix)進行討論議訂。 並且,對於推動實施,建議能源政策改革應朝向,以改革需求端架構(Reform of the Demand Structure)來達到能源節約社會目標,,以及改革供給端(Reform of the Supply Structure)來達到下一代分散式能源系統目標,並且倡議以創新技術來協助國家能源組成結構轉型,與能源供給端至需求端應備建設(Energy Supply-Demand Structure)之改革工作。 此研究報告於2011年12月提出後,歷經多次修改(最新更新為2012年1月),未來提交給經濟產業省供政策參考後,將產生如何影響內容,將再持續觀察最新進度。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
開放非銀行事業從事預付式行動付款服務法制議題之研究 美國仍有千萬民眾無法接取寬頻網路美國聯邦通訊委員會FCC於2010年7月20 日發布第六次寬頻建設調查報告(Sixth Broadband Deployment Report),指稱「仍有1400萬到2400萬的美國人仍無法接取下載4Mbps、上載1Mbps的寬頻網路服務,並且幾乎沒有可能立即為這些人裝設寬頻網路。」從而FCC在報告中做出了「寬頻網路並未以合理、符合時代需求的方式對全民推廣佈建」(Broadband deployment to all Americans is not reasonable and timely)的結論。 自1996年通訊法(第706節)要求FCC應每年針對「寬頻普及」的狀況進行評估以來,FCC是第六次針對此議題發布調查報告。報告指出,雖然寬頻建設在過去10年中已有顯著的成長,但在如北卡羅萊納州、德州、密西西比州等地的鄉村地區,仍有不成比例的多數民眾並無法接取寬頻網路,因為網路服務提供者在這些區域中看不到佈建寬頻網路的經濟利益。 目前只有65%的美國民眾能在家中接取高速寬頻服務。今年3月公布的「國家寬頻計畫(National Broadband Plan)」,FCC則設定目標,希望利用教育方案和公私合作伙伴策略(public-private partnerships)來推動網路的基礎建設,在2020年前達到90%美國民眾可在家接取高速寬頻服務的目標。為此,FCC將重整普及服務基金,引進創新策略釋出新的行動寬頻頻譜、除去對基礎建設(包括路權與電線桿等的接取權)的投資障礙。 值得注意者,這份報告同時將家戶寬頻接取網路的基本速率從2Mbps提升到下載4Mbps、上傳1Mbps。