本文為「經濟部產業技術司科技專案成果」
世界經濟論壇(World Economic Forum, WEF)2024年11月19日發布「融合實境中的共同承諾:促進未來網路治理」(Shared Commitments in a Blended Reality: Advancing Governance in the Future Internet)白皮書,說明進入虛實整合的融合實境(Blended Reality, BR)時代,需取得社會共識並進行治理,透過倡導以人為本的網路治理框架並促進多方參與,以平衡技術創新與社會期待之間的差距,使網際網路持續進步。 融合實境是由延展實境(Extended Reality)、AI、物聯網(Internet of Things)、6G網路、區塊鏈等新興技術驅動而形成,融合數位與實體。現行網路治理因橫跨不同司法管轄區而有分散與破碎問題,且技術標準間之矛盾或規範落差阻礙全球協作,恐不利因應BR發展所帶來之挑戰。因此,WEF藉此白皮書提出下列8項核心承諾與目標,強調安全、包容及可持續性之發展,期望作為全球共同之治理承諾以應對挑戰: 1. 尊重人權:保障數位與實體空間中的基本人權,促進個人尊嚴、自主性及包容性。 2. 問責:明確各方責任,建立透明有效的問題解決機制。 3. 協作安全(collaborative safety):透過多方利害關係人協作加強對弱勢群體的保護並制定安全標準。 4. 資產所有權:應確保數位和實體資產的來源、真實性及相關權利保護。 5. 負責任的資料治理:透過教育與研究等方式,促進學術、政府、企業與社會間之知識共享,並建立隱私及安全機制,保障資料治理。 6. 教育與研究:支持普及科技教育和推動開放式研究,促進全球科技共享。 7. 無障礙(accessibility):改善基礎設施及多元工具的發展,以確保科技在社會各層面之平等使用與普及化。 8. 永續性:平衡經濟效益與社會及環境影響,建立長期永續發展模式。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
中國大陸修定「網絡交易管理辦法」,課與第三方交易平台多項經營責任中國大陸國家工商行政管理總局為加強網路交易消費者保護,在2014年03月15日起實施「網絡交易管理辦法」,就企業經營者責任新設多項規定。特別是針對第三方交易平台業者,辦法要求其建立交易規則、消費資訊保存、不良訊息處理、消費糾紛調解管道等管理制度,以確保平台服務品質。同时要求平台業者建立審查制度,對申請進入平台從事經營活動之賣家,進行身分審查與建檔,透過以網管網,達成有效率的網路身分管理。 另外,為確保網路交易市場秩序、公平競爭,本辦法亦例示多項不公平競爭行為態樣,包括任意調整信用評價、傷害他人商譽等影響交易秩序之欺罔行為,皆受到明文禁止。甚至在商標侵權情況中,平台在接收到侵權通知時,必須積極採取必要措施,否則就因此損害擴大部分,將與侵權行為人共同承擔連帶責任。 考量在兩岸近期簽署之「海峽兩岸服務貿易協議」中,陸方已承諾對台開放「在線數據處理與交易處理業務」之電子商務網站經營,待將來協議完成相關程序生效後,台灣電子商務業者在進入大陸市場經營交易平台時,勢必受到本辦法規範,實應留意相關要求以避免觸法。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。