南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。
在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。
為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。
指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。
針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。
而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。
最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。
該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
Google為了提供客製化的廣告服務,利用搜尋引擎、Youtube、Gmail及其他服務,在事前未告知並取得使用者同意的情況下,蒐集人們的資料(包括搜尋紀錄、電子郵件、第三方網站軌跡資料、位置資訊及影片觀看紀錄等)。歐洲各國隱私監管機構對此表示憂心,認為Google恐將以前所未有的規模,掌握使用者的一舉一動,紛紛投入調查工作,並相繼認為Google確實已經違反其內國法。 荷蘭資料保護局(Data Protection Authority, DPA)主席Jacob Kohnstamm於2014年12月15日表示,使用者有權知悉他們在某一平台輸入的資料,其他平台也可以利用它們,並要求Google在合併不同服務所取得的個人資料前,應以跳出不同視窗等方式供使用者點選,俾以取得其明示同意(unambiguous consent),僅只透過一般隱私條款,並不足以提供當事人清楚且一致的資訊(clear and consistent imformation)。 DPA希望Google不要再考驗他們的耐心,並揚言對Google處以1500萬歐元罰鍰,除非它在2015年2月底前完成改善。但面對DPA的最後通牒,Google僅回應,他們已經大幅修正了隱私權政策,很遺憾DPA仍作出這樣的決定,但他們將儘快與歐洲各國隱私監管機構就後續修訂方案進行討論。
美國參議員提案規範物聯網設備之資安漏洞美國參議員2017年08月01日提案立法,要求提供給美國政府的物聯網網路連結設備,須符合產業資訊安全標準,同時規範設備供應商,提供之設備必須可持續更新,不得含有無法更改參數的設定與不得具有任何已知安全漏洞。兩黨皆有參與提案參議員,共和黨為Cory Gardner和Steve Daines,以及民主黨的Mark Warner和Ron Wyden。 由於物聯網連結數持續成長,與物聯網相連的裝置與感應器,預計在2020年會超過200億台裝置,相關裝置的資料蒐集與傳輸,同時影響消費者與產業。當這些裝置在出廠時若預設無法更改的參數,即預設固定程式無法更新,則該裝置連接物聯網時,會因裝置無法更新程式,而可能產生資安漏洞,進而影響物聯網上其它連結設備之安全性。 2016至今,物聯網相關設備已被惡意阻斷服務攻擊(DDOS)影響相關網站、伺服器以及網路基礎設施提供者。 Warner等4位參議員提出的〈2017年物聯網資安改進法〉(Internet of Things (IoT) Cybersecurity Improvement Act of 2017)草案,主要關注: 聯邦政府採購的物聯網相關設備,須可持續更新、符合產業標準、不含無法更改內建參數的設定、以及不含已知安全漏洞。 行政管理和預算局(Direct the Office of Management and Budget ,OMB),須發展可供替代網路級(network-level)資安設備以供限制性資料處理。 國土安全部的國家保護和計畫局(National Protection and Programs Directorate)須向提供連線設備予聯邦政府的承包商,發布整合性的資安漏洞揭露指導原則。 免除資安研究人員基於誠實信用研究時,所揭露與資安漏洞有關之法規責任。 要求所有執行機構清點所有連結物聯網的設備。
何謂瑞典「VINNOVA」?VINNOVA的組織地位與功能為何?瑞典近年來積極制定科技創新政策,為了提升政策協調度,瑞典於2001年繼續進行組織改造,創立瑞典創新系統署(Swedish Governmental Agency for Innovation Systems, VINNOVA)與瑞典研究委員會(Swedish Research Council),成為創新發展最主要的兩大支柱。 VINNOVA是瑞典推動科研創新重要的一個部署,瑞典政府相當重視此單位,每年投入約20億瑞典克朗的經費於此,且除了在斯德哥爾摩(Stockholm)設有總部外,更在比利時的布魯塞爾(Brussels)及美國矽谷(Silicon Valley)設有辦公室,以掌握世界最新的產業創新動態,其組織單位約有兩百多名員工,負責VINNOVA計畫推動等工作 。由於VINNOVA的特別地位及其執行許多協助瑞典產業創新之計畫。 VINNOVA在科技創新扮演重要的推手,政府也希望藉VINNOVA的成立促進產業社會的發展,尤其重視產業創新領域。為能順利推動科研創新的過程,且加強學術、產業及公共行政單位的研究合作,VINNOVA建立三螺旋(Triple Helix)模式,希望藉由合作而相互學習。
日本內閣通過AI研發及活用推進法草案日本內閣於2025年2月28日通過並向國會提出《人工智慧相關技術研究開發及活用推進法案》(人工知能関連技術の研究開発及び活用の推進に関する法律案,以下簡稱日本AI法),旨在兼顧促進創新及風險管理,打造日本成為全球最適合AI研發與應用之國家。規範重點如下: 1. 明定政府、研究機構、業者與國民之義務:為確保AI開發與應用符合日本AI法第3條所定之基本原則,同法第4至第9條規定,中央及地方政府應依據基本原則推動AI相關政策,研發法人或其他進行AI相關研發之機構(以下簡稱研究機構)、提供AI產品或服務之業者(以下簡稱AI業者)及國民則有配合及協助施政之義務。 2. 強化政府「司令塔」功能:依據日本AI法第15條及第17至第28條規定,日本內閣下應設置「AI戰略本部」,由首相擔任本部長,負責制定及推動AI基本計畫,統籌推動AI技術開發與應用相關政策,並促進AI人才培育、積極參與國際交流與合作。 3. 政府調查及資訊蒐集機制:為有效掌握AI開發、提供及應用狀況,防止AI應用侵害民眾權益,日本AI法第16條規定政府應蒐集、分析及調查國內外AI技術研發及應用趨勢,並得基於上述結果,對研究機構或AI業者採取指導、建議或提供資料等必要措施。