經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。
報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為:
1. 「定義」AI風險管理範圍、環境脈絡與標準;
2. 「評估」風險的可能性與危害程度;
3. 「處理」風險,以停止、減輕或預防傷害;
4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。
其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。
未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
歐盟執委會(European Commission, EC)於2020年3月24日發表新聞稿,說明在COVID-19疫情期間,各國政府要求人民保持社交距離甚或自我隔離;人民無法會面互動下,數位政府政策成為維持正常生活的解套方式。歐盟於新聞稿中重申先前建構「歐盟內部市場電子交易之電子身分認證與信賴服務規則」(REGULATION EU No 910/2014 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL of 23 July 2014 on electronic identification and trust services for electronic transactions in the internal market and repealing Directive 1999/93/EC,以下簡稱 eIDAS)、電子識別(electronic identification, eID)以及發展信任服務(trust services)的必要性,例如電子戳記(eTimestamps)、電子圖章(eSeals)、電子簽章(eSignatures)、網站認證(Website authentication)等均屬之。歐盟公民無須離開住宅,即可和公部門互動。 除了公部門,信任服務可以支援歐盟企業(特別是疫情嚴重地區的中小型企業)遠端執行業務,維持業務連續性。例如金融服務對交易、認證、安全性及防洗錢等領域發展數位化:eID識別客戶身分、整合同一客戶的海外金融帳戶服務、遠端驗證防洗錢要求;電子簽章可與客戶遠端簽署金融服務契約;電子註冊交付服務(electronic registered delivery service)則作為安全交換重要文件或契約之機制。 在零售業而言,安全的電子交易對於線上業務尤為重要。例如eID可對購買酒類等管制商品或藝術品等高價商品之消費者進行更嚴格的身分檢查;電子簽章和電子戳記則強化文件及流程追蹤機制,降低追蹤成本。 在運輸部門,以汽車共享服務為例,eID可用於證明客戶的身份,提供安全登錄,並允許客戶進行遠端車輛解鎖。而貨運及物流產業,若在不同營運商運送之間遇有延遲,則電子戳記可使責任歸屬更加明確。另外,對重要文件使用電子圖章,可證明文件完整性、有效性並減少對紙本文件的依賴,並降低疫情期間會面之風險。
創投業景氣欠佳,政府扮演助力角色在網路泡沫化之後,曾經在九○年代紅極一時的資金投資機構 -- 創業投資 (Venture Capital) 也歷經了前所未有的低潮。創業意願的低落、股市的低迷,使得創投在投資目標的選擇與投資的回收上,都面臨很大的瓶頸。 然而近期以來,在美國,一股對創投支撐的力道,正逐漸成形。這股力量正是來自於各州的政府。目前在美國,除了六個州之外,各州的政府均積極投入創投產業,希望透過創投的中介功能,發展產業。各州政府經由創投發展的產業,主要有生技、醫療設備、軟體、電信、能源、半導體與網路等。 各州政府希望透過創投,發展當地的產業,並提供就業機會。在這波的潮流之下,四十四個州所支持的 151 支創投基金,已為創投業者帶來一股新的希望。
日本發布網路安全相關法令問答集日本國家網路安全中心(内閣サイバーセキュリティセンター,或稱National Information Security Center, NISC)於2020年3月2日發布「網路安全相關法令問答集」(サイバーセキュリティ関係法令Q&Aハンドブック),以回應日本內閣在2017年7月27日通過的「網路安全戰略」(サイバーセキュリティ戦略)中所提及應整理相關法制,以利企業實施網路安全措施與對策之決定。因此,內閣網路安全戰略本部(サイバーセキュリティ戦略本部)普及啟發‧人才培育專門調查會(普及啓発・人材育成専門調査会)於同年10月10日成立工作小組,針對網路安全相關法令進行推動與調查工作。 本問答集內容涉及13項法律議題,包括議題如下: 說明網路安全基本法(サイバーセキュリティ基本法)網路安全之定義與概要; 以公司法為核心,從經營體制觀點說明董事義務,例如建立內部控制機制,以確保系統審核與資料揭露之適當性; 以個人資料保護法為核心,例如說明個人資料的安全管理措施; 以公平交易法(不正競争防止法)為核心,說明在營業秘密的保護範圍內,利用提供特定資料與技術手段,來實施迴避行為係屬無效; 以勞動法規為核心,說明企業採取網路安全措施之組織與人為對策; 以資通訊網路、電信業者等為中心,說明IoT相關法律問題; 以契約關係為中心,說明電子簽章、資料交易、系統開發、雲端應用服務等議題; 網路安全相關證照制度,例如資訊處理安全確保支援人員; 說明其他網路安全議題,例如逆向工程、加密、訊息共享等; 說明發生網路安全相關事故之因應措施,例如數位鑑識; 說明當網路安全糾紛有涉民事訴訟時應注意之程序; 說明涉及網路安全之刑法規範; 描述日本企業在實施網路安全措施時,應注意之相關國際規範,例如歐盟一般資料保護規則(General Data Protection Regulation, GDPR)與資料在地化(Data Localization)等議題。 此外,隨著網路與現實空間的融合,各產業發展全球化,相關法規也日益增加,惟網路安全相關法規,在原無網路安全概念與相關法制的日本法上,卻鮮少有較為系統化的概括性彙編與解釋文件。因而盤點並釐清網路安全相關法令則成為首要任務,故研究小組著手進行調查研究,並將調查結果—「網路安全法律調查結果」(サイバーセキュリティ関係法令・ガイドライン調査結果)與「第四次關鍵基礎設施資訊安全措施行動計畫摘要表」(重要インフラの情報セキュリティ対策に係る第4次行動計画)作為本問答集之附錄文件以資參酌。最後,NISC期待透過本問答集,可作為企業實施具體網路安全對策之實務參考。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。