歐盟資通安全局公布《提升歐盟軟體安全性》研究報告

  歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年4月25日以歐盟網路安全驗證框架(EU cybersecurity certification framework)檢視現行安全軟體開發及維護之方式與標準,並公布《提升歐盟軟體安全性》(Advancing Software Security in the EU)研究報告。歐盟資通安全局後續將以該研究報告協助產品、服務及軟體開發之驗證,並期望能夠成為執行歐盟網路安全驗證框架相關利害關係人之非強制性參考文件之一。

  本報告指出由於安全軟體已普遍應用於日常商品與服務當中,但目前針對軟體安全事故並無相對應之安全守則及技術,故為提高軟體安全層級並緩解目前已知之軟體安全威脅,應針對安全軟體開發及維護進行規範並驗證。

  報告中除了針對軟體安全提出其應具備之要素、概述現行安全軟體開發方式及標準之缺點外,亦提出若以歐盟網路安全驗證框架針對軟體開發方式進行驗證時可考量之一些實際做法,包括:

  1. 已驗證之資訊與通訊科技(Information and Communication Technology, ICT)產品、服務或流程供應商或製造商,針對資料庫之部署及維護,除探討防止資料洩漏之方式外,尚應考量產品、服務或流程驗證過程中,進行資料共享會面臨之安全威脅以及緩解之方式。
  2. 應與歐洲標準組織(European Standards Organizations, ESOs)及標準制定組織(Standards Developing Organization, SDOs)合作。
  3. 建立一些針對軟體開發、維護及操作準則以補充現有歐盟網路安全驗證方案(EU cybersecurity certification schemes)。
  4. 針對現行不一致之軟體開發及維護規範,應考量建立較寬鬆之合規性評估(conformity assessment)標準。
  5. 借鏡現有經驗和專業知識,促進歐盟網絡安全驗證框架之適用。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟資通安全局公布《提升歐盟軟體安全性》研究報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8522&no=55&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
美國交通部針對聯邦自駕車政策3.0徵集公眾意見

  2018年1月10號,美國交通部部長趙小蘭於出席內華達州拉斯維加斯之消費者科技聯盟(Consumer Technology Association)大會時表示,美國交通部正在研擬發布新版之聯邦自駕車政策3.0(Federal Automated Vehicle Policy 3.0, FAVP3.0)以因應自動駕駛技術於未來對安全性、機動性與消費者權益之衝擊。該聯邦自駕車政策3.0將會是一個綜合整體運輸業概況之自動駕駛政策,其將讓自動化運輸系統,包括,車子、貨車、輕軌、基礎設施與港口得以安全的整合。   為了達成上述目的,且讓公眾的意見得以協助辨識美國聯邦法規必須配合修正之部分,並鼓勵更多的創新研發。美國交通部於其網站上也發起了數個自動化車輛技術之意見徵集,讓其能更準確的找出當前美國法規對於自動駕駛技術創新所造成之阻礙。   該意見徵集主要分為四項,第一項是由美國交通部聯邦公路管理局(Federal Highway Administration, FHWA)主管,針對如何將自動駕駛系統整合進入公路運輸系統之資訊徵求書(Request for Information, RFI)。   第二項與第三項則是由聯邦公共運輸局(Federal Transit Administration, FTA)分別針對自駕巴士研究計畫(Automated Transit Buses Research Program)與移除相關障礙所發出之意見徵詢書(Request for Comments, RFC)。   最後一項則是由交通部國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)主管,針對移除自駕車法規障礙所發布之意見徵詢。

日本經產省修正〈電子商務交易及資訊商品交易等準則〉

  日本經濟產業省於2018年12月19日修正「電子商務交易及資訊商品交易等準則」(電子商取引及び情報財取引等に関する準則,以下稱「本準則」),主要係因應2018年《不正競爭防止法》在促進資料利用之環境整備方面,以及《著作權法》在應取得著作權人同意之行為範圍部分之修正。   本準則首次公布於2002年3月,係經產省透過學界、產業界及金融界專家、相關主管機關、消費者等各方合作,整理民法等各相關法規釋疑而成,因此,須隨著法規修正更新本準則中的法規適用、爭點、說明等內容。經產省期能透過本準則提高交易當事人對電子商務交易及資訊商品交易相關市場的可預見性(foreseeability),並促進交易。   本準則此次修正相關重點如下: 於網站上販售或公布用以安裝程式或存取、複製數位內容(digital content)及程式之帳號及密碼者,應負相關衍生之法律責任。 針對透過網路蒐集、輸出、於內部網路登載、投影他人著作物等利用行為者,加以限制規範。 若學校授課、企業培訓係使用網路進行遠距教學,或遠距教學服務之供應商有償向學校、企業提供課程而違法利用他人著作物者,則學校、企業、服務供應商須依著作權法負相關法律責任。 使用者(被授權人)基於契約取得供應商(授權人)之同意得以使用資訊商品,縱使該資訊商品之智慧財產權(著作權、特許權)受讓予他人,使用者仍得繼續使用該資訊商品。 因體驗版之手機應用程式、軟體、共享軟體,對使用功能或使用期間有所限制,若行為人違法散布解除限制方法於網路者,則行為人應負之法律責任。 向第三人提供全部或部份有償之資料集(dataset)等行為者,加以限制規範。 針對使用P2P共享軟體將檔案上傳至網路、自網路上下載以及提供P2P共享軟體等行為,就是否違反著作權法進行討論。 拍攝到第三人著作物之合理使用。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

歐盟創新採購機制觀測

TOP