日本內閣網路安全中心(内閣サイバーセキュリティセンター)依據於2018年底新修正之網路安全基本法(サイバーセキュリティ基本法,以下稱基本法),於今年1月30日發布網路安全協議會的營運報告(以下稱營運報告)。 基本法修法原因在於網路攻擊日趨複雜,若組織受到網路攻擊,並非每個組織都有能力因應,如此將導致組織運作受到衝擊。因此於基本法第17條新增設立「網路安全協議會」(サイバーセキュリティ協議会,以下稱協議會)。日本內閣網路安全中心於前揭發布之營運報告中說明協議會之運作模式及招募成員情形。
運作模式上,協議會設有秘書處、營運委員會及總會,秘書處由內閣網路安全中心擔任,營運委員會由各機關首長組成,總會則由所有協議會成員組成並且定期召開會議;協議會將成員分成第一類成員、第二類成員及一般成員。第一類成員與第二類成員組成特別工作小組(タスクフォース),小組成員間會交換不對外公開且尚未確認的機密資訊,一般成員則依循特別工作小組提供的資訊及因應對策,加以實際運用。經營運報告統計,自協議會成立(2019年4月1日)至同年年底,一共發生33起網路攻擊事件,皆透過協議會促使各政府機關、私人組織迅速掌握網路攻擊資訊。
招募成員方面,協議會於去年5月加入第一期91名成員;同年10月,再加入64名第二期成員,目前為止共計155名;第三期成員已於今年三月開放申請加入,預計五月確定第三期成員。此外,營運報告中列有協議會成員名簿,成員包含內閣官房首長、資訊處理推進機構(情報処理推進機構)、宮城縣網路安全協議會、NTT DOCOMO電信公司、成田國際機場公司、石油化學工業協會、富士通、三菱電機等產、官、公協會組織單位。日本藉由設立協議會,期許透過政府與民間協力合作,共同維護政府公部門及產業之基礎網路安全。
無人機(Drone)也就是無人飛機或無人飛行器(Unmanned Aerial Vehicles, UAV),具備自動飛行系統的簡易模型飛機,自動飛行系統內可能包含一電腦作業系統、一套衛星導航裝置、羅盤功能、氣壓高度計、偵測器及設計飛行之軟體等等,簡稱無人機。茲因電子與無線傳輸科技進步,無人機在國際間掀起流行,近來無人機之使用引發安全疑慮,促進各國重視無人機的使用與法制管理。目前國際間陸續針對無人機立法管理的有美國、日本及歐盟等,我國行政院亦於2015年9月24日通過「民用航空法」部分條文修正草案因應無人機遙控管理規範。觀諸國際立法及修法趨勢,無人航空器之管理,包括無人機的體積、重量、使用用途、使用區域限制、使用時間限制、飛行速度或方法、飛行高度限制等,且亦須重視安全、隱私、資料保護、損害責任與保險相關問題,以及無人機所有權明確判別之方式等,因此我國未來就無人機相關管理規範或可參考先進國家重要管理規定,擬定更適合我國之「無人航空器管理規則」,俾利發展新興科技無人機市場時,同時能兼顧確保個人、國家與領空安全之規劃。
德國聯邦政府內閣通過自駕車草案德國聯邦政府內閣通過自駕車草案 資訊工業策進會科技法律研究所 2021年3月10日 德國聯邦交通與數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)提出之自駕車草案(Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren[1]),經聯邦政府內閣(Kabinett)於2021年2月10日批准通過。BMVI表示冀望透過該草案創建自駕車的法律框架,針對自駕車布建與落地應用之相關程序進行規定,以使指定運行範圍(festgelegter Betriebsbereich[2])為全國公共道路的等級四自駕車(Vollautomatisiertes Fahren)能夠成為人民日常生活的一環。 壹、背景目的 2017年3月,德國聯邦議會(Deutsche Bundestag)通過道路交通法(Straßenverkehrsgesetzes, StVG)修正案,修正過後之道路交通法針對具高度與完全自動駕駛功能(hoch- und vollautomatisierter Fahrfunktion)的車輛─約等同於SAE等級三與等級四之自駕車─進行規範,明確規定在操作設計範圍(Operational Design Domain, ODD)允許自駕車操作,如專為於高速公路上行駛設計之自駕車,則在該模式下不得於其他交通道路上行駛[3],該修正亦針對駕駛人[4]的概念與責任範圍進行重新定義[5]。 本次針對自動駕駛制定之草案係以包裹立法之方式,除同樣於道路交通法進行條文的增定(第1d條至第1l條)外,並修正強制汽車責任保險法(Pflichtversicherungsgesetz, PflVG)第1條,增加道路交通法規第1d條所指自駕車車主(Halter[6])的保險責任。目標為使德國成為全球首個將自駕車自研究階段帶入日常生活中之國家,並預計於2022年實現其構想。 貳、內容摘要 道路交通法規增訂之第1d條至第1l條內容概述如下: 一、第1d條:定義 本條定義道路交通法所涉及之自動駕駛相關詞彙,包含自駕車、指定運行範圍、自駕車技術監控者,以及最小風險條件。 二、第1e條:允許車輛運行自動駕駛之條件 本條規範允許車輛運行自動駕駛之條件,包含需符合規定的技術要求、已受核發行駛許可、依各邦法律主管機關批准於指定運行範圍內使用、根據道路交通法第1條第1項允許於公路上行駛等條件;本條亦針對技術設備所必備的功能進行詳細描述,如車輛得自行遵守相關交通法規、自駕系統可隨時藉由技術監控者加以停用並將車輛置於最小風險狀態,以及自駕系統在以視覺、聽覺或其他可感知方式要求技術監控者進行手動駕駛前,預留有足夠的反應時間等。 三、第1f條:使自駕車運行之相關人員(Beteiligten)義務 本條要求自駕車之車主為維護道路安全和環境相容性(Umweltverträglichkeit),需定期進行自駕系統的更新與維護、確保於手動駕駛時遵守道路交通規定,以及履行技術監控任務。在對自駕車進行技術監控時,當接收到系統以視覺、聽覺或其他可感知方式通知技術監控者,並要求切換操作模式時,技術監控者應立即改為手動駕駛模式,並採取必要之安全措施。另外本條要求自駕車之製造商有義務對自駕車進行風險評估,確保其電子電機架構(Electronic & Electrical Architecture, EEA)與聯網系統的安全性,並向德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)和其他有關主管機關提出證明。 四、第1g條:資料處理 本條課予自駕車之車主及製造商特定義務,要求車主在駕駛自駕車時,於特定情況下進行指定資料類型之保存及傳輸;在製造商部分,則要求其需以簡單、清晰且明確的方式,告知車輛之車主隱私設置選項以及駕駛過程中資料係如何被處理。另本條授權KBA於有安全上之必要時,向車輛之車主進行資料的蒐集、儲存與使用。 五、第1h條:自動駕駛功能的追溯啟用 當動力車輛設置未符合本法所適用之國際法規所描述之自動駕駛功能,僅當停用自動駕駛功能,而不影響車輛其他功能時,方可不考量自動駕駛功能未符合國際法規描述之情況,允許依相關審驗規定運行車輛。 六、第1i條:自動駕駛功能的測試 仍處於測試開發階段之自駕車僅在經KBA核發測試許可、已根據本法第1條第1項進行註冊的情況下,方得於公共道路上行駛,且該行駛必須基於測試目的,過程中亦必須持續進行技術監控。 七、第1j條:授權 經聯邦參議院(Bundesrat)批准之法令授權,BMVI可就道路交通法第1d條至第1i條之公共道路上具自駕功能車輛的許可和操作進行細節性規定。 八、第1k條:德國聯邦國防軍隊、聯邦警察、各邦警察、民防與災難控制、消防隊和緊急服務的車輛 為執行官方任務而有配置自駕車的需要時,若能確保使用自駕車時充分考慮公共安全,則允許相關技術規範、操作設計範圍規範,與其他行駛相關規範之適用排除。 九、第1l條:評估 基於自駕車研發過程可能產生的影響與其和資料保護法規的相容性,BMVI將於2023年底前,以根據本法第1i條第2項所取得之測試資料進行評估,並將評估結果交予聯邦議會。 參、簡析 由BMVI所提出之針對自駕車的草案目前正於聯邦議會及參議院的程序進行中,預計可於2021年中通過。與2017年之道路交通法修正案進行比較,2017年之修正主要目的係使自駕車能夠受道路交通法規之規範,故將自駕車以正面表列之方式,增列入道路交通法規對車輛之定義中,並對駕駛人之義務進行規範,而較少針對自駕車特性制定專門之規定;與之相比,綜觀本次修正草案之內容,可總結出草案係針對未來可於公路上行駛之自駕車結構、品質與設備制定一致性的技術標準要求,規範操作相關人員應行使之義務如自駕系統更新、資料保存、安全性證明與風險評估等,並就操作執照的審查與自駕車測試相關程序進行制定,透過針對自駕車之發展與落實所需進行法條內容之設計,力圖藉此於促進自駕車發展與落實的同時,進一步推動德國道路交通法規之調節與一致性規範之創設。 我國政府長期以來致力於自駕車科技的研發與實驗,2019年6月施行之無人載具科技創新實驗條例以沙盒之概念,於自駕車實驗的範圍內進行特定法規與條件的排除,使技術的研發與測試能不受現有之規範或特定條件限制,最終期望能將自駕車實際投入現有交通體系中使用。為使我國法制環境能與技術發展相互配合,建議可參考德國自動駕駛法草案之內容,在確保公共安全的基礎上,於我國制定自駕車之公路行駛規範,以協助自駕車技術於交通體系之落實。 [1]Bundesministerium für Verkehr und digitale Infrastruktur ,Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren (2021), https://www.bmvi.de/SharedDocs/DE/Anlage/Gesetze/Gesetze-19/gesetz-aenderung-strassenverkehrsgesetz-pflichtversicherungsgesetz-autonomes-fahren.pdf?__blob=publicationFile (last visited Mar. 10, 2021). [2]指定運行範圍(festgelegter Betriebsbereich)於草案第1d條中之定義為「當地與空間上確定之公共道路」,應非普遍所指操作設計範圍(Operational Design Domain, ODD),特於此說明以避免混淆。 [3]Deutsche Bundestag, Straßenverkehrsgesetz für automatisiertes Fahren geändert (Mar. 30, 2017), https://www.bundestag.de/dokumente/textarchiv/2017/kw13-de-automatisiertes-fahren-499928 (last visited Mar. 10, 2021). [4]2017年道路交通法之修正係針對駕駛人(Fahrzeugführer)之概念與責任範圍進行重新定義,而非針對車主(Fahrzeughalter/Halter),特於此敘明。 [5]§§1a,1b,63a StVG. [6]車主(Fahrzeughalter/Halter)與所有人(Eigentümer)之概念於德國道路交通法上非完全相等,普遍情況兩者為同一人,但在少數情況則否,以車輛租賃為例,在此車輛之出租人為所有人,而車輛之承租人為車主,特於此敘明。
歐盟執委會發布《受禁止人工智慧行為指引》歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).
歐盟資通安全局(ENISA)提出資通安全驗證標準化建議歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)(舊稱歐盟網路與資訊安全局European Union Agency for Network and Information Security)於2020年2月4日發布資通安全驗證標準化建議(Standardisation in support of the Cybersecurity Certification: Recommendations for European Standardisation in relation to the Cybersecurity Act),以因應2019/881歐盟資通安全局與資通安全驗證規則(簡稱資通安全法)(Regulation 2019/881 on ENISA and on Information and Communications Technology Cybersecurity Certification, Cybersecurity Act)所建立之資通安全驗證框架(Cybersecurity Certification Framework)。 受到全球化之影響,數位產品和服務供應鏈關係複雜,前端元件製造商難以預見其技術對終端產品的衝擊;而原廠委託製造代工(OEM)亦難知悉所有零件的製造來源。資通安全要求與驗證方案(certification scheme)的標準化,能增進供應鏈中利害關係人間之信賴,降低貿易障礙,促進單一市場下產品和服務之流通。需經標準化的範圍包括:資訊安全管理程序、產品、解決方案與服務設計、資通安全與驗證、檢測實驗室之評估、資通安全維護與運作、安全採購與轉分包程序等。 ENISA認為標準化發展組織或業界標準化機構,在歐盟資通安全之協調整合上扮演重要角色,彼此間應加強合作以避免重複訂定標準。目前有三組主要國際標準可構成資通安全評估之基礎: ISO/IEC 15408/18045–共通準則與評估方法:由ISO/IEC第1共同技術委員會(JTC1)及第27小組委員會(SC27)進行重要修訂。 IEC 62443-4-2–工業自動化與控制系統之安全第4-2部分:作為工業自動化與控制系統元件的技術安全要求。 EN 303-645–消費性物聯網之資通安全:由歐洲電信標準協會(ETSI)所建立,並與歐洲標準委員會(CEN)、歐洲電工標準化委員會(CENELEC)協議共同管理。 然而,資通訊產品、流程與服務種類繁多,實際需通過哪些標準檢驗才足以證明符合一定程度的安全性,則有賴驗證方案的規劃。為此,ENISA亦提出資通安全驗證方案之核心構成要件(core components)及建構方法論,以幫助創建歐盟境內有效的驗證方案。