南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。

在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。

為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。

指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。

針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。

而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。

最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。

該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

相關連結
你可能會想參加
※ 南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9225&no=64&tp=1 (最後瀏覽日:2026/05/04)
引註此篇文章
你可能還會想看
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

英國因應自動駕駛車輛上路,提出新保險責任制度

  英國政府為達成於2021年使完全無須人為操控的自動駕駛車輛可在英國公路上行駛之目標,提出新保險責任制度。透過自動駕駛和電動車輛法案的提出,將為自動駕駛車輛可合法上路行駛鋪路,從而帶動自動駕駛車輛產業發展。整體而言,一旦此立法正式通過,除了代表英國政府正式樹立自動駕駛車輛的保險框架里程碑外,也象徵英國朝向2021年的目標又更邁進一步。

國際可再生能源組織發布2021年約旦可再生能源進度評估報告

  2020年7月,約旦能源與礦產資源部發佈「約旦能源綜合戰略(2020-2030)」,主要著重於下列三點:一、提升再生能源發電比例,降低能源進口量。將本地能源發電比例提高,同時降低石油衍生品於能源結構和發電總量中之比例。二、暫停核電項目計畫,未來約旦將不採用傳統來源生產更多之電力。三、降低碳排放量。   而在2021年2月時,國際可再生能源組織(IRENA)與約旦能源與礦產資源部透過視訊會議的討論結果,共同發布一份約旦可再生能源進度評估報告,指出約旦的可再生能源電量自2014年至2020年間,由幾近為零,增長約20%。   上開結果可能與約旦能源與礦產資源部重視太陽光電(PV)和風力發電的政策有關,包括整合產業發展的各種有利條件,如當地產業發展及所需之技術,以使收益最大化。此外,為使未來可再生能源更加增長,同時為了因應電網基礎設施(the grid infrastructure)的發展進度與可再生能源發展的進步不同,創造能源最終用途的需求及使其盡早電氣化,將成為未來政策上最重要的方向之一。

基因改造作物種植與否,未來將由各會員國自行決定

  為期望能打破歐盟長久以來因是否種植基因改造作物所陷入的政治僵局,近來根據一份歐盟內部策略報告文件(internal strategy paper)指出,歐盟執委會針對未來的基因科技政策首次建議表示,未來將授權由各會員國自行決定將批准或禁止基因改造作物於境內種植,並且透過調整相關基因科技法管理規範的方式予以落實推動。   以目前歐盟各會員國觀之,境內支持基因改造科技(gene-technology-friendly)與反對基因改造科技(gene-technology-unfriendly)的國家彼此呈現封鎖阻隔的局面,欠缺透明的決策程序,同時降低民眾對於政策決定了解程度。因此,歐盟執委會建議,關於基因改造作物的批准與種植,在此次建議中,擬朝向將歐盟權限與各會員國權限進行切割的做法,表示此一規劃對於後續選擇栽種與利用基因改造作物的國家將更為簡便,相對於無意栽種基因改造作物的國家則可核發禁令。   為執行上述建議做法,歐盟執委會進一步表示,修改相關法令規範必須取得歐盟議會之同意,如可行將嘗試於現行立法架構下採取政策調整的方式,同時應確保未來新修正的基因科技管理規範和WTO之規定相容,並且不會和其他國家政策立場造成衝突,尤其是向來支持發展基因改造作物的美國。   整體而言,歐盟執委會對於未來調整方向抱持樂觀態度,認為有鑑於目前的情況,此舉將為植物生物科技與相關種子產業帶來正面提升的力量。

TOP