「安全、韌性、高效、永續的數位基礎設施」,是歐盟「數位十年計畫」(Digital Decade Policy Programme 2030)所擘劃的政策目標之一。執委會於2024年2月21日發布「如何掌握歐洲的數位基礎設施需求?」(How to master Europe's digital infrastructure needs ?)白皮書,詳細盤點歐盟數位基礎設施的發展現狀及所面臨的挑戰,提出可能的政策方案並公開諮詢各界意見。
其中有關頻率管理的部分,執委會認為成員國間各自為政的頻率釋出與管理政策拖累了整體歐盟的5G布建進程,目前5G的涵蓋率與普及率仍不如預期,成員國間的數位發展程度也參差不齊,法規環境差異對跨境提供服務所造成的障礙亦導致數位單一市場難以成形。為避免相同困境在6G重演及因應發展衛星通訊服務帶來的跨境頻率管理議題,歐盟將更進一步同調各成員國的頻率管理政策與規範環境,提高歐盟對頻率政策的掌控,確保歐盟通訊網路的安全性、獨立性和完整性。
海纜的安全性亦受到關注,歐盟既有電子通訊網路和服務的監管架構並未就雲端服務業者規範相關的義務,但隨著大型雲端服務業者持續投入海纜建設,歐盟已經有超過60% 的國際流量透過非公眾網路業者建設的海纜傳輸,監理上的漏洞已經形成歐盟通訊網路的安全隱患。
執委會將與各界展開廣泛的討論與磋商,研議能確保安全與韌性之數位基礎設施的政策工具及監理框架。在頻率管理方面,希望能提高歐盟的一致性與協調性,為地面通訊、衛星通訊及其他新興應用的頻率使用提供更統一甚至單一的授權流程及選擇條件,以促進數位單一市場的形成;在海纜方面亦規劃建立歐盟層級的聯合治理體系,將針對海纜的風險、弱點及依賴性做全面性的評估,亦將資助既有海纜的升級與新海纜的設立,同時確保供應鏈的安全性及降低對高風險第三國的依賴。
人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
歐盟議會否決新版著作權指令案,指令案將於9月再次進行表決歐盟議會於2018年7月5日針對新版著作權指令案進行投票,其中278票贊成、318票反對、31票棄權,否決新版著作權指令案。 指令案被否決之主要原因在於其中具爭議性之Article 11、13。Article 11規定,網路資訊整合平台業者(aggregation service)未來在引用他人所發佈之新聞資料或以超連結,連結至該新聞網頁時,非營利之平台業者需取得出版者之同意,營利之平台業者則需支付使用費,外界將此稱為「超連結稅」(link tax);而Article 13則規定,網路資訊整合平台業者需確保上傳之內容未侵害他人之著作權,否則當上傳資訊有侵害他人著作權之情形,平台業者亦應負相關責任。 非營利之網路資訊整合平台業龍頭之一〈維基百科(Wikipedia)〉認為該指令案之通過恐將對其造成影響,為表達抗議於2018年7月4日關閉維基百科西班牙、義大利及波蘭版,而其共同創辦人之一Jimmy Wales亦於個人Twitter上發文表達反對意見。惟另一方面,歐洲電視台、出版業者及Paul McCartney(披頭四成員之一)等藝術創作者則認為,新版著作權指令案將有助於著作權之保護,而表達支持之立場。 新版著作權指令案將於修正後,於同年9月份再付議會表決。因指令案通過與否,將對相關平台業者造成實質上之影響,後續動態值得繼續追蹤及注意。
歐洲專利局發布人工智慧與機器學習專利審查指南正式生效歐洲專利局(European Patent Office, 下稱EPO)於2018年11月1日發佈新版專利審查指南已正式生效。此次新版的焦點為Part G, Chapter II, 3.3.1關於人工智慧(Artificial Intelligence, AI)與機器學習(Machine Learning, ML)的可專利性審查細則。 在新版審查指南Part G, Chapter II, 3.3中指出數學方法本身為法定不予專利事項,然而人工智慧和機器學習是利用運算模型和演算法來進行分類、聚類、迴歸、降維等發明,例如:神經網路、遺傳演算法、支援向量機(Support Vector Machines, SVM)、K-Means演算法、核迴歸和判別分析,不論它們是否能夠藉由數據加以訓練,此類運算模型和演算法本身,因具有抽象的數學性質而不具專利適格性。 其中,EPO亦針對人工智慧和機器學習相關應用舉例下列特殊情形,說明可否具備發明技術特徵: (一)可能具技術性 在心臟監測儀器運用神經網路辨別異常心跳,此種技術為具有技術貢獻。 基於低階特徵(例如:影像邊緣、像素數值)的數位影像、影片、音頻或語言訊號分類,屬於分類演算法的技術應用。 (二)可能不具技術性 根據文字內容進行分類,本身不具技術目的,而僅是語言學的目的(T 1358/09) 對抽象數據或電信網路數據紀錄進行分類,但未說明所產生分類的技術用途,亦被認定本身不具技術目的,即使該分類演算法的數據價值高(例如:穩健性)(T 1784/06)。 在新版審查指南中亦指出,當分類方法用於技術目的,其產生之訓練集(training set)和訓練分類器(training the classifier)的步驟,則能被視為發明的技術特徵。 近年來,人工智慧技術的應用分佈在我們的生活中,無論是自駕車、新藥開發、語音辨識、醫療診斷等,隨著人工智慧和機器學習技術快速發展,新版的審查指南將為此技術訂定可專利性標準,EPO未來要如何評判人工智慧和機器學習相關技術,將可透過申請案之審查結果持續進行關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。