歐盟推出《網路韌性法案》補充歐盟網路安全框架

  歐盟為提升網路數位化產品之安全性,解決現有網路安全監管框架差距,歐盟執委會於2022年9月提出《網路韌性法案》(EU Cyber Resilience Act)草案,對網路供應鏈提供強制性網路安全標準,並課予數位化產品製造商在網絡安全方面之義務。該法案亦提出以下四個具體目標:
  1.確保製造商對於提升產品之網路安全涵蓋整個生產週期;
  2.為歐盟網路安全之合法性創建單一且明確之監管架構;
  3.提高網路安全實踐之透明度,以及製造商與其產品之屬性;
  4.為消費者和企業提供隨時可用之安全產品。

  《網路韌性法案》要求製造商設計、開發和生產各種硬體、有形及軟體、無形之數位化產品時,須滿足法規要求之網路安全標準,始得於市場上銷售,並應提供清晰易懂之使用說明予消費者,使其充分知悉網路安全相關資訊,且至少應於五年內提供安全維護與軟體更新。

  《網路韌性法案》將所涵蓋之數位化產品分為三種類別(產品示例可參考法案附件三):I類別、II類別,以及預設類別。I類別產品之網路安全風險級別低於II類別產品、高於預設類別,須遵守法規要求之安全標準或經由第三方評估;II類別為與網路安全漏洞具密切關連之高風險產品,須完成第三方合格評估始符合網路安全標準;預設類別則為無嚴重網路安全漏洞之產品,公司得透過自我評估進行之。法案另豁免已受其他法律明文規範之數位化產品,惟並未豁免歐洲數位身份錢包、電子健康記錄系統或具有高風險人工智慧系統產品。

  若製造商未能遵守《網路韌性法案》之基本要求和義務,將面臨高達1500萬歐元或前一年度全球總營業額2.5%之行政罰鍰。各歐盟成員國亦得自行制定有效且合於比例之處罰規則。

相關連結
你可能會想參加
※ 歐盟推出《網路韌性法案》補充歐盟網路安全框架, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8915&no=0&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
加拿大運輸部發布自駕系統測試指引2.0,為建立全國一致的實驗準則

  加拿大運輸部(Transport Canada)於2021年8月6日發布「自駕系統測試指引2.0」(Guidelines for Testing Automated Driving Systems in Canada Version 2.0),建立全國一致的最佳實踐準則,以指導配有自動駕駛系統(Automated driving systems, ADS)之車輛能安全地進行實驗。根據從國內外測試活動中取得的經驗及教訓,對安全措施進行更新,內容包括: 一、實驗前的安全考量:探討在開始實驗之前應考量的安全注意事項,包括(1)評估實驗車輛安全性、(2)選擇適當的實驗路線、(3)制定安全管理計畫、(4)安全駕駛員與培訓、(5)民眾溝通及提高意識、(6)確保當地執法單位及緊急應變人員瞭解實驗活動。 二、實驗中的安全管理:討論在實驗過程中應重新檢視的安全考量,包括(1)使用分級方法進行測試、(2)調整安全管理策略、(3)制定事件和緊急應變計畫與步驟、(4)安全駕駛員的角色及職責、(5)遠端駕駛員和其他遠端支援活動的安全考量、(6)在沒有安全駕駛員的情況下進行實驗、(7)與其他道路使用者的安全互動、(8)與乘客的實驗、(9)定期報告及資訊共享。 三、實驗後應注意之事項:在結束其測試活動後應考量的因素,包括報告實驗結果、測試車輛及其部件的出口或處置。如果測試車輛是臨時進口的,則在測試完成後可能需要將其銷毀或捐贈。   該測試指引僅適用於臨時實驗,而非永久的市場部署,加拿大運輸部將繼續更新該測試指引及其他文件和工具,以支持加拿大道路使用者的安全。

印度邁向個資法制新里程公布數位個資保護規則

印度於2025年11月13日公布《數位個人資料保護規則》(Digital Personal Data Protection Rules,下稱DPDP規則,位階近似於我國個人資料保護法施行細則),作為2023年8月制定《數位個人資料保護法》(Digital Personal Data Protection Act,下稱DPDPA)之配套規範。DPDPA為印度首部全面性個資保護立法,並與DPDP規則採三階段施行。第一階段自2025年11月13日起,重點包括定義規定、印度資料保護委員會(Data Protection Board of India, DPBI)之設立與權限。第二階段自2026年11月13日起,聚焦於印度特有之「同意管理人(Consent Manager)」制度。第三階段自2027年5月13日起,全面施行資料處理者(Data Fiduciary,意涵近似於歐盟一般資料保護規則(GDPR)所稱資料控管者,惟更強調對資料主體負有信賴義務與善良管理責任)一般義務、兒童資料保護、重要資料處理者制度、當事人權利、跨境傳輸及適用除外等規定。其制度重點如下: 一、明確化告知與同意規範:DPDP規則要求資料處理者於取得資料主體同意前,須以獨立且易懂之方式提供告知,清楚說明個人資料類型、利用目的及所提供之商品或服務,並提供同意撤回、權利行使及申訴之管道。 二、建立同意管理人制度:此制度使資料當事人得透過第三方集中管理其對不同資料受託者之同意狀態,並隨時檢視或撤回其同意。DPDP規則就其資格、義務、登錄程序及監理機制加以規範,並賦予DPBI對其進行調查與裁罰之權限。 三、強化資安措施與侵害通報:DPDP規則明定資料受託者應採取安全維護措施,其最低標準包括加密、存取控制、日誌保存、監控、備份及資料處理相關契約管理等。另建立個資侵害通報制度,要求即時通報資料當事人及DPBI,並於72小時內補充完整資訊。 四、加重大型平台與特定資料保護機制:DPDP規則要求大型電子商務、線上遊戲及社群平台於三年未互動且無保存義務時刪除個人資料;並就18歲以下兒童及受法定監護者,要求取得可驗證之法定代理人同意。另中央政府得指定「重要資料處理者(Significant Data Fiduciary)」,課予定期影響評估、稽核及設置資料保護長之義務。 五、規範權利行使、跨境傳輸與除外規定:DPDP規則要求資料受託者及同意管理人於其網站或應用程式中,清楚揭示權利行使方式及身分驗證程序;跨境傳輸採「原則開放、例外限制」模式,由政府另行指定限制國家或對象;另就研究、保存及統計目的之資料處理,DPDP規則明定在未造成個人權益之影響下,且資料受託者已採取適當技術與組織措施,始得適用除外規定。

「亞馬遜公司(amazon)」積極向美國政府機關推動其所開發的人臉辨識軟體“Rekognition”,將可能造成隱私權的重大侵害

  亞馬遜公司所開發的“Rekognition”軟體可以進行照片中的人臉辨識識別,單張圖片中可辨識高達一百人,同時可以圖片進行分析及比對資料庫中的人臉長相。目前亞馬遜公司積極向政府機關推銷這套軟體。可能造成的風險是,公權力機構可透過使用“Rekognition”軟體來辨識或追蹤任何個人,警察機關可以隨時監控人民的行為,各城市的政府機關也可能在無合理理由的狀況下隨時查看人口居住狀況,尤有甚者,美國移民及海關執法局(Immigration and Customs Enforcement, ICE)可以使用該軟體來監控移民的狀況,即使是無任何犯罪疑慮的狀況下亦可進行,將政府打造成巨大的監控系統,有造成隱私權嚴重侵害的疑慮。因此無論亞馬遜公司內外都有反對將“Rekognition”軟體推銷給政府機構的聲浪,尤其美國公民自由聯盟(American Civil Liberties Union, ACLU)更是發起多項連署抗議。   支持政府使用“Rekognition”軟體的意見則認為,使用“Rekognition”軟體將可以更有效率地辨識人臉,在尋找失蹤兒童或在公共中辨識出恐怖份子可以發揮更大的作用,不啻是保護公眾法益的進步。   佛羅里達的奧蘭多市警察機構曾經使用“Rekognition”軟體後因契約到期而一度停止使用,於7月9日與亞馬遜公司續約繼續測試使用該軟體,奧蘭多市警察機構宣稱以目前測試階段將不會使用一般民眾的照片進行測試,將不會造成人民的隱私權侵害。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP